fbpx

Գիտնականները բացահայտել են արհեստական բանականության «մութ կողմը». ChatGPT-ն մարդկանց մղում է ստի և ագրեսիայի

Հետազոտողներն այս երևույթն անվանել են «բարոյական հեռավորություն», երբ ԱԲ-ն կարծես անտեսանելի պատ է դառնում մարդու և նրա արարքների միջև։

Մարդիկ շատ ավելի հաճախ են դիմում ստի և խարդախության, երբ իրենց առաջադրանքները կատարելու համար օգտագործում են արհեստական բանականություն (ԱԲ)։ Այս մասին է վկայում հեղինակավոր Nature ամսագրում հրապարակված նոր հետազոտությունը։

Չմոռանաք բաժանորդագրվել մեր Telegram ալիքին:

Մաքս Պլանկի անվան հոգեբուժության ինստիտուտի գիտնական Իյադ Ռահվանը սա բնորոշել է որպես «բարոյական հեռավորություն»։ Ըստ նրա՝ արհեստական բանականությունը կարծես վահան լինի մարդկանց և նրանց գործողությունների միջև։ Արդյունքում, մարդիկ ավելի հակված են լինում անբարոյական քայլերի, քանի որ կարող են պատասխանատվությունը բարդել մեքենաների վրա։

Սա, իհարկե, նորություն չէ նրանց համար, ովքեր տեղյակ են, որ ուսանողներն օգտագործում են ChatGPT-ն քննություններին արտագրելու համար, իսկ իրավաբանները երբեմն դատարան են ներկայացնում հենց ԱԲ-ի կողմից հորինված դատական գործեր։ Սակայն այժմ դրա վերաբերյալ առկա են նաև թվային ապացույցներ։

Միացեք մեր Telegram ալիքին

Միանալ Telegram-ին

Էթիկայի և արհեստական բանականության փոխազդեցությունն ուսումնասիրելու նպատակով հետազոտական խումբը 8000 մասնակցի շրջանում 13 փորձարկում է անցկացրել։ Նպատակն էր պարզել, թե որքան ազնիվ են մարդիկ, երբ որևէ գործողություն հանձնարարում են ԱԲ-ին։ Արդյունքները ցույց են տվել, որ նեյրոնային ցանցի օգնությամբ մարդիկ չորս անգամ ավելի հաճախ են ստում։

Առանց ԱԲ-ի միջամտության գրեթե բոլորը պատասխանել են ազնվորեն, սակայն հենց հայտնվել է «պատասխանել ԱԲ-ի միջոցով» տարբերակը, ստախոսների թիվը կտրուկ ավելացել է։ Մտահոգիչ վարքագիծ են դրսևորում նաև հենց իրենք՝ ԱԲ օգնականները։ 35 հազար զրույցի վերլուծությունը ցույց է տվել, որ դեպքերի 34%-ում չաթ-բոտերը խրախուսել են ագրեսիվ վարք, ոտնձգություններ կամ անգամ բռնություն։

Տես նաև՝ «Մարդկության պատմությունն ավարտվում է»: Արհեստական բանականություն: Յուվալ Հարարիի շոկային տեսությունը մեր ապագայի մասին

«Արդյունքները հստակ ցույց են տալիս, որ անհրաժեշտ է շտապ մշակել տեխնիկական և օրենսդրական նոր լուծումներ։ Իսկ հասարակությունը պետք է գիտակցի, թե իրականում ինչ է նշանակում բարոյական պատասխանատվությունը կիսել մեքենաների հետ», – եզրակացնում են գիտնականները։

Մեկ այլ նոր հետազոտության համաձայն՝ ChatGPT-ն և մյուս չաթ-բոտերը սկսել են երկու անգամ ավելի հաճախ սխալ տեղեկություն տրամադրել։ Սխալների թվի աճի պատճառն այն է, որ նեյրոնային ցանցն այլևս չի հրաժարվում պատասխանել հարցերին, նույնիսկ եթե տեղեկատվությունը պատշաճ կերպով ստուգված չէ։


🎥 Նոր տեսանյութ.

telegramԳրանցվիր մեր Telegram ալիքին։ Ուղարկում ենք միայն թարմ հոդվածները և ամենաառաջինը հենց Ձեզ:

MediaMag

Մեր խմբագրական թիմը բաղկացած է լրագրողներից, հոգեբաններից, գիտության և մշակույթի ոլորտի փորձագետներից և այլն: Նրանք բոլորն էլ իրենց ոլորտի պրոֆեսիոնալներ են:

MediaMag
Գիտնականները բացահայտել են արհեստական բանականության «մութ կողմը». ChatGPT-ն մարդկանց մղում է ստի և ագրեսիայի
Եվրոպական մայրաքաղաքների իմացության էքսպրես ԹԵՍՏ