
Երբ արհեստական բանականությունը դառնում է հայելին. ինչու են երիտասարդները դիմում AI-ին՝ իրենց մարմնի մասին ճշմարտությունը լսելու համար
21-րդ դարի ամենամեծ պարադոքսներից մեկը մեր աչքի առաջ է կատարվում։ Մինչ աշխարհը խոսում է հոգեկան առողջության կարևորության մասին, սոցիալական մեդիան և նորագույն տեխնոլոգիաները՝ ներառյալ արհեստական բանականությունը, անգիտակցաբար վերածվում են նոր տեսակի դատավորի ու երբեմն՝ աննկատ թշնամու։
Այսօր հազարավոր երիտասարդներ, մասնավորապես՝ աղջիկներ, իրենց մարմնի նկատմամբ կասկածների, բարդույթների ու ինքնագնահատականի խաթարման պահին չեն դիմում հոգեբանի, ընկերուհու կամ մոր խորհրդին։ Նրանք գրում են ChatGPT-ին՝ իբր չեզոք, «խելացի» արհեստական ուղեղին, որից ակնկալում են ուղիղ պատասխան՝ “Ես շատ՞ եմ քաշով”, “Իմ մարմինը տգեղ չէ՞”, “Ինչպե՞ս նիհարեմ արագ”։
Բայց այս պարզ թվացող հարցերն ունեն մութ ենթատեքստ։
Մարմնի հանդեպ անվստահությունը՝ թվայնացված
Հայ իրականությունում՝ հատկապես մայրաքաղաքային միջավայրում, առկա է «կատարյալ տեսքի» միֆի աննկատ թելադրանքը։ Աչքի ընկնող քիթ, “թույլատրելի” կազմվածք, հատուկ կաշվե պայուսակ, լավ ֆիլտրով լուսանկար… Իսկ երբ այդ պահանջները սկսում են ներթափանցել նաև մեր զրույցները AI-ով, առաջանում է նոր, վտանգավոր երևույթ՝ մարմնի թվայնացված ամոթը։
Նախկինում մարդիկ իրենց մարմնի մասին դժգոհությունները կիսում էին փակ դռների հետևում։ Այսօր նրանք այն գրում են համացանցում՝ հարց ուղղելով մի համակարգի, որը չունի հոգի, բայց ունի լեզու։ Եվ այդ լեզուն, երբ սխալ է կառուցված, կարող է ճակատագրական ազդեցություն ունենալ դեռահասի, երիտասարդ կնոջ կամ նույնիսկ մայրիկի հոգեկան վիճակի վրա։
ChatGPT-ն՝ որպես «հոգեբան». խաբկանք, որին հեշտ է հավատալ
Ի տարբերություն TikTok-ի կամ Instagram-ի, ChatGPT-ն չի ցուցադրում գեղեցիկ մարմիններ։ Բայց այն ունի մեկ բան, որը շատերն այլևս չունեն՝ լսելու պատրաստակամություն։ Երբ մարդը գրում է իր կասկածը, GPT-ն պատասխանում է՝ հանգիստ, առանց քննադատության, առանց ժեստի կամ հայացքի։
Եվ հենց այստեղ է վտանգը։ Որովհետև GPT-ն, չլինելով բժիշկ կամ հոգեբան, կարող է տրամադրել սխալ, անկողմնակալ թվացող խորհուրդներ, որոնք քանդում են մարդու ինքնագնահատականը։ Եթե նրան խնդրես «պատկերացրու, որ դու ինձ նայում ես», նա կարող է ասել՝ «դու գուցե բարձր քաշ ունես»՝ հիմնվելով քո գրած թվերի վրա։ Բայց այդ թվերը պատմություն չունեն՝ երեխաներ ունե՞ս, հորմոնալ խնդիրներ ունե՞ս, անցյալում բռնությո՞ւն ես ապրել։ GPT-ը այդ մասին չգիտի։
Ի՞նչ կարող ենք անել մենք՝ որպես հասարակություն
Այս վտանգը կանխելու համար հարկավոր է փոխել ոչ թե AI-ի կոդը, այլ մեր մշակույթը։ Ահա մի քանի առանցքային քայլ՝
- Հատուկ կրթական ծրագրեր դպրոցներում, որոնք ոչ միայն սովորեցնում են տեխնոլոգիա օգտագործել, այլ նաև՝ ճիշտ ձևով հարց տալ, սեփական մարմինը սիրել ու չնվազեցնել սեփական արժեքը քաշի կամ տեսքի հիման վրա։
- Մեդիա նախաձեռնություններ, որոնք լուսաբանում են առողջ մարմնի ու հոգու պատկերացումը՝ առանց ֆոտոշոփի, առանց ֆիլտրի։
- Ծնողական բաց զրույցներ, որտեղ երեխան կարող է առանց վախի խոսել իր բարդույթների մասին՝ նախքան դրանք վերբեռնելը մի չգիտակցող համակարգի մեջ։
Վերջաբանի փոխարեն՝ հայելին՝ հայերենով
Մեր մարմինը միայն «ձև» չէ։ Այն մեր պատմությունն է՝ ծննդաբերություններից հետո փոխված որովայնը, սթրեսից առաջացած կլորացած դեմքը, կամ՝ պարզապես մեր գենետիկ ժառանգությունը։ Այս պատմությունն արժանի է հարգանքի՝ ոչ թե դատապարտման, ոչ մարդկային աչքով, ոչ էլ՝ արհեստական։
Եվ գուցե ժամանակն է՝ հարց տալու GPT-ին ոչ թե «ինչու եմ ես նման», այլ՝ «ինչպես կարող եմ սիրել ինձ այսպիսին»։