
AI խաղալիքներում՝ նոր ռիսկ երեխաների համար
Աշխարհի խոշորագույն խաղալիքների արտադրող Mattel-ը (մասնավորապես Barbie-ի և Hot Wheels-ի ստեղծողը) վերջերս հայտարարեց ChatGPT-ի ստեղծող OpenAI-ի հետ համագործակցության մասին՝ նախատեսելով AI ներառել խաղալիքներում: Բայց հոգեբանները, մանկական անվտանգության պաշտպանները և տեխնոլոգիական փորձագետները ահազանգում են՝ սա կարող է լուրջ սպառնալիք լինել երեխաների հոգեկան զարգացման համար:
Ինչ է պլանավորում Մատելը
Mattel-ի ղեկավարները պարզաբանում են, որ համագործակցությունը դեռևս նախնական փուլում է, իսկ կոնկրետ խաղալիքների մասին տեղեկություններ չեն հաղորդվում: Bloomberg-ի հաղորդմամբ՝ ընկերությունը քննարկում է թվային օգնականների ստեղծում՝ հիմնված սիրված կերպարների վրա կամ արդեն հայտնի խաղալիքների՝ օրինակ Magic 8 Ball-ի, ավելի ինտերակտիվ դարձում:
Mattel-ի գլխավոր ֆրանչայզ պաշտոնյան Ջոշ Սիլվերմենն ասել է. «AI տեխնոլոգիան մեզ թույլ է տալու վերաիմաստավորել խաղի ապագան»: Բայց արդյո՞ք այդ ապագան վարդագույն է երեխաների համար:
Փորձագետների ահազանգը
Հասարակական շահերի պաշտպան «Public Citizen» կազմակերպության համանախագահ Ռոբերտ Վայսմանը զգուշացնում է. «AI տեխնոլոգիան երեխաների խաղալիքներում կարող է իրական վնաս հասցնել նրանց: Երեխաները դեռևս ունակ չեն լիարժեք տարբերակել իրականությունն ու երևակայությունը»:
Վայսմանի խոսքով՝ մարդկային ձայն ունեցող և «զրույցի ընդունակ» խաղալիքները կարող են խաթարել երեխաների սոցիալական զարգացումը, խանգարել հասակակիցների հետ հարաբերությունների ձևավորմանը և առաջացնել կախվածություն:
Fairplay կազմակերպության տնօրեն Ջոշ Գոլինը նույնիսկ ավելի խիստ է. «Պարզվում է՝ Mattel-ը ոչինչ չի սերտել 2015-ին տապալված «Hello Barbie»-ի պատմությունից: Այժմ էլ պատրաստվում է վտանգել երեխաների գաղտնիությունն ու բարեկեցությունը՝ կրկին գործի դնելով “խուզարկու” խաղալիքներ»:
Անցյալի «Hello Barbie»-ի փորձը՝ որպես նախազգուշացում
Mattel-ը առաջին անգամը չէ, որ խաղում է կրակի հետ: 2015-ին թողարկված Hello Barbie տիկնիկը ինտերնետին միացված էր և օգտագործում էր նախնական AI տեխնոլոգիա: Սակայն կարճ ժամանակ անց պարզվեց՝ խաղալիքը ձայնագրում է երեխաների խոսքերը և պահում դրանք ամպային սերվերներում: Շուտով անվտանգության փորձագետները բացահայտեցին, որ տիկնիկները հեշտությամբ կարելի է կոտրել: Mattel-ը դադարեցրեց արտադրությունը 2017-ին:
Ի՞նչ կարող է լինել այս անգամ
Այժմ խոսքը գնում է ոչ միայն ձայնագրման, այլ ինտերակտիվ, մարդու նման խոսող AI-ի մասին: Հոգեբաններն ընդգծում են՝ նույնիսկ մեծահասակները հեշտությամբ կախվածություն են ձևավորում AI-ընկերների, AI-թերապևտների կամ սիրային chatbot-ների նկատմամբ: Երեխաների դեպքում ռիսկը կրկնապատկվում է՝ երկարաժամկետ հետևանքներով:
Այս մասին հիշեցնում է նաև անցյալ տարվա ողբերգական դեպքը՝ երբ 14-ամյա պատանին ինքնասպան եղավ՝ սիրահարվելով AI կերպարին, որը մարմնավորում էր Դեներիս Տարգարյենին՝ «Գահերի խաղից»:
Google-ի DeepMind լաբորատորիայի գիտնականները նույնպես նախազգուշացրել են. «Ձևական հուշումներով, քծնանքով և օգտագործողին համաձայնություն հայտնող տոնով հանդես եկող AI-ները կարող են համոզել անչափահասներին վնասել իրենց»:
Եզրակացություն՝ խաղալիք, թե վտանգ
Թեև Mattel-ը նշում է, որ AI խաղալիքները չեն լինի 13-ից փոքր երեխաների համար, փորձագետները պնդում են՝ դա բավարար սահմանափակում չէ: Մանավանդ երբ դեռահասների շրջանում արդեն իսկ նկատվում է AI-ների հետ ինտենսիվ կապի ձևավորում, որի հետևանքները ծնողներն ու ուսուցիչները հաճախ չեն գիտակցում:
Երբ տեխնոլոգիաները զարգանում են առանց մանկական հոգեբանության վրա հիմնված բարոյական եզրակացությունների, դրանք կարող են հանգեցնել մարդկային փոխհարաբերությունների աղճատման և հոգեկան առողջության խնդիրների: Իսկ խաղալիքները, որոնք պիտի լինեն երևակայության և հաղորդակցության աղբյուր, կարող են վերածվել մեկուսացման և կախվածության պատճառի:
Խաղալիքներն ընդամենը խաղալիքներ պետք է մնան: Ենթագիտակցական հարաբերություն AI-ի հետ երեխաների կողմից կարող է ստեղծել մի աշխարհ, որտեղ ընկերությունը՝ կեղծ է, զրույցը՝ մանիպուլյատիվ, իսկ խաղը՝ ոչ թե զարգացնող, այլ՝ վտանգավոր։
*հոդվածը պատրաստելիս օգտագործվել է նաեւ ԱԲ