Արհեստական բանականությունը և մարդու իրավունքները․ գիտական համայնքը մտահոգված է

Արհեստական բանականությունը և մարդու իրավունքները․ գիտական համայնքը մտահոգված է

Այս տարվա մայիսի 30-ին արհեստական բանականության անվտանգության կենտրոնը հրապարակել է նախազգուշացում մարդկության համար արհեստական ինտելեկտի վտանգի մասին:

Մեկ նախադասությունից բաղկացած հայտարարության մեջ, որը ստորագրել են ավելի քան 350 գիտնականներ, բիզնես առաջնորդներ և հասարակական գործիչներ, ասվում է. «Արհեստական բանականության պատճառով անհետացման ռիսկի նվազեցումը պետք է լինի գլոբալ առաջնահերթություն՝ հասարակական այլ ռիսկերի հետ միասին, ինչպիսիք են համաճարակները և միջուկային պատերազմը»։

Այս հայտարարության մեջ դժվար է չնկատել դաժան կրկնակի հեգնանքը․  ստորագրողներից մի քանիսը, ներառյալ Google DeepMind-ի և OpenAI-ի ղեկավարները, արհեստական բանականությամբ աշխատող տեխնոլեգիաների առաջարներն են:

Երկրորդ՝ հենց այս ընկերություններն են կարողանում ապահովել, որ ԱԲ-ն օգուտ է բերում մարդկությանը, կամ՝ առնվազն վնաս չի պատճառում։

Չնայած գիտնականները վաղուց էին զգուշացրել արհեստական բանականության վտանգների մասին, միայն ԱԲ-ի գեներատիվ նոր գործիքների վերջին թողարկումից հետո հանրության մեծ մասը հասկացավ, թե ինչ բացասական ազդեցություն կարող է այն ունենալ:

Գեներատիվ ԱԲ-ն (Generative AI) լայն տերմին է, որը նկարագրում է «ստեղծագործական» ալգորիթմները․ դրանք կարող են ինքնուրույն ստեղծել նոր բովանդակություն՝ պատկերներ, տեքստեր, աուդիո, վիդեո և նույնիսկ համակարգչային ծածկագրեր: Այս ալգորիթները զարգանում են տվյալների զանգվածային հավաքագրմամբ, այնուհետև օգտագործում են այդ տվյալները, որպեսզի ստեղծեն արդյունքներ, որոնք հաճախ չեն տարբերվում «իրական» տվյալներից, ինչը դժվարացնում է, եթե ոչ անհնարին դարձնում որոշելը՝ արդյոք բովանդակությունը մարդկային է, թե ալգորիթմ է ստեղծվել:

Այսօր Գեներատիվ ԱԲ-ի արտադրանքները հիմնականում լինում են երեք տեսակի՝

1․ գործիքներ, որոնք ստեղծում են տեքստեր՝ ChatGPT
2․ գործիքներ, որոնք ստեղծում են պատկերներ՝ Dall-E, Midjourney և Stable Diffusion
3․ գործիքներ, որոնք ստեղծում են համակարգչային կոդ՝ Codex, Copilot

Գեներատիվ արհեստական բանականության գործիքների հանկարծակի ի հայտ գալն աննախադեպ էր:
Երկու ամսից էլ քիչ պահանջվեց, որպեսզի OpenAI-ի կողմից մշակված ChatGPT չաթ-բոտին միանա 100 միլիոն օգտատեր։ Սա անհամեմատ գերազանցում է TikTok-ի նման հանրաճանաչ հարթակների սկզբնական աճը, որին ինը ամիս պահանջվեց այդքան օգտատերի հասնելու համար:

Երբ առաջին անգամ թողարկվեցին վեբ որոնման գործիքները, սոցիալական մեդիան և բջջային տեխնոլոգիաները, և դրանք դարձան ավելի հայտնի և հասանելի, գրեթե անհնար էր կանխատեսել այն բոլոր մտահոգիչ եղանակները, որոնց միջոցով այս փոխակերպվող տեխնոլոգիաները կդառնային մարդու իրավունքների ոտնահարման դրդապատճառ ամբողջ աշխարհում։

Օրինակ, 2017թ.Մետայի (Meta) դերը Մյանմայում ռոհինջաների էթնիկ զտումների մեջ, կամ՝ գրեթե չհայտնաբերվող լրտեսող ծրագրերի օգտագործումը, որը տեղադրվում է բջջային հեռախոսներում՝ դրանք վերածելով 24-ժամյա հսկողության մեքենաների, որոնցից ստացված տվյալներն օգտագործվում են լրագրողների և իրավապաշտպանների դեմ։ Երկու օրինակներն էլ կործանիչ տեխնոլոգիաների ներդրման արդյունքն են, որոնց սոցիալական և քաղաքական հետևանքները լուրջ ուշադրության չեն արժանացել:

Այս զարգացումներից դասեր քաղելով՝ մարդու իրավունքների համայնքը կոչ է անում ընկերություններին, որոնք զարգացնում են գեներատիվ արհեստական բանականության արտադրանքներ, անհապաղ գործել՝ կանխելու մարդու իրավունքների վրա ունեցած ցանկացած բացասական ազդեցություն:

Հետևեք մեզ նաև Telegram-ում