11:59 | 20.06.24 | Նորություններ | 1576
OpenAI-ի համահիմնադիրներից Իլյա Սուցկվերը OpenAI-ից պաշտոնապես հեռանալուց ընդամենը մեկ ամիս անց հիմնել է նոր ընկերություն՝ Safe Superintelligence (SSI) անունով:
Սուցկվերը OpenAI-ի երկարամյա գլխավոր գիտնականն էր։ Նա հիմնադրել է SSI-ն Y Combinator-ի նախկին գործընկեր Դենիել Գրոսի եւ OpenAI-ի նախկին ինժեներ Դանիել Լեւիի հետ:
OpenAI-ում Սուցկվերը ջանք էր գործադրում բարելավելու AI-ի անվտանգությունը՝ պայմանավորված «գերխելացի» AI համակարգերի աճով։ Նա այս հարցով աշխատել է Յան Լեյկեի հետ, ով ղեկավարում էր OpenAI-ի Superalignment թիմը: Եւ՛ Սուցկվերը, եւ՛ Լեյկեն լքել են OpenAI-ը ղեկավարության հետ կտրուկ վիճաբանությունից հետո AI անվտանգության շուրջ: Լեյկեն այժմ ղեկավար պաշտոն է զբաղեցնում մրցակից Anthropic-ում:
Սուցկվերը երկար ժամանակ է, ինչ լույս է սփռում արհեստական բանականության անվտանգության առավել փշոտ ասպեկտների վրա: 2023 թվականին հրապարակված բլոգային գրառման մեջ նա կանխատեսել է, որ մարդկանցից ավելի բարձր ինտելեկտով AI-ը կարող է հայտնվել առաջիկա տասնամյակի ընթացքում, ինչը վտանգներ է պարունակում եւ պահանջել է վերահսկելու եւ սահմանափակելու ուղիներ գտնել։
Superintelligence is within reach.
— SSI Inc. (@ssi) June 19, 2024
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
«Safe Superintelligence-ը (Անվտանգ սուպերինտելեկտը) մեր առաքելությունն է, մեր անունն ու մեր ամբողջ արտադրանքի ճանապարհային քարտեզը, քանի որ դա մեր ուշադրության կենտրոնում է լինելու: Մեր թիմը, ներդրողները եւ բիզնես մոդելը բոլորը համահունչ են SSI-ին հասնելու համար: Մենք անվտանգությանն ու հնարավորություններին զուգահեռաբար մոտենում ենք՝ հեղափոխական ինժեներական եւ գիտական տեխնիկական խնդիրներ լուծելու նպատակով»,- ասվում է Սուցկվերի նոր ընկերության ստեղծման մասին հայտարարող թվիթում: