

Արհեստական բանականության հիմքով մոդելների մշակման ոլորտի առաջատարները ֆորում են ստեղծելու՝ տեխնոլոգիայի կիրառման վրա վերահսկողություն սահմանելու համար: Ֆորումը հետևելու է մշակման անվտանգությանը:
OpenAI, Microsoft, Google և Anthropic ընկերություններն աշխատում են Frontier Model Forum-ի ստեղծան վրա, որը կարգավորելու է մեքենայական ուսուցման մոդելների աշխատանքը, հայտնում է Reuters-ը՝ հղում կատարելով արհեստական բանականության ոլորտի աղբյուրներին,- գրում է how2b.am-ը:
Ֆորումը զբաղվելու է արհեստական բանականության մոդելների անվտանգ և պատասխանատու մշակմամբ, հատկապես այն մոդելների, որոնք ավելի մեծ հնարավորություններ ունեն, քան արդեն գործողները, և կարող են հասարակական անվտանգության համար ռիսկային լինել:
Frontier Model Forum-ը զբաղվելու է նաև արհեստական բանականության անվտանգության ոլորտում հետազոտությունների առաջխաղացմամբ, արհեստական բանականության առաջնային մոդելների լավագույն փորձի բացահայտմամբ և գիտնականների, քաղաքական գործիչների ու գործարարների հետ փոխգործակցությամբ:
«Արհեստական բանականության մոդելների մշակմամբ զբաղվող ընկերությունները պատասխանատվություն են կրում, որպեսզի իրենց պրոդուկտները անվտանգ ու վստահելի լինեն և ենթարկվեն մարդկանց», — հայտարարել է Microsoft-ի տնօրեն Բրեդ Սմիթը: