Cu puțin timp înainte ca Sam Altman să fie concediat din funcția de director general al OpenAI, câțiva cercetători ai companiei au trimis o scrisoare consiliului de administrație, avertizând asupra unei „avansări semnificative în dezvoltarea inteligenței artificiale” - o descoperire care, în opinia lor, „ar putea pune în pericol umanitatea”. Despre asta a relatat Reuters și The Information.
Ce se știe despre progresele OpenAI? Misteriosul proiect „Q*”.
Scrisoarea a devenit unul dintre factorii dintr-o lungă listă de nemulțumiri ale consiliului de administrație față de șeful companiei, Sam Altman. În document se vorbea despre proiectul Q*. Reprezentanții OpenAI nu oferă comentarii oficiale despre acesta, dar se spune că Mira Murati, care a ocupat temporar funcția de director general în absența lui Altman, a scris un mesaj adresat angajaților, recunoscând existența acestui proiect și a avertizat cu privire la interesul mass-media pentru el.
Potrivit unor angajați OpenAI, proiectul Q* ar putea reprezenta o avansare în dezvoltarea unei inteligențe artificiale puternice (AGI), capabilă să îndeplinească sarcini la fel de bine ca și o ființă umană. Cu resurse computaționale puternice, noua paradigmă a învățat să rezolve probleme matematice; până în prezent, la nivelul unui elev de clasele primare, dar acest succes îi încurajează pe cercetători în privința viitoarelor realizări ale proeictului Q*.
Matematica, în opinia oamenilor de știință, reprezintă „frontiera” în dezvoltarea inteligenței artificiale generative. În prezent, aceasta poate scrie texte și face traduceri în diferite limbi, prezicând statistic fiecare cuvânt următor, dar răspunsurile sale la aceeași întrebare pot varia semnificativ. Reușita în domeniul matematicii, unde există doar un răspuns corect, presupune că AI are capacități semnificative de raționament asemănătoare inteligenței umane. Aceste capacități ar putea fi aplicate în cercetările viitoare în domeniul inteligenței artificiale. Spre deosebire de un simplu calculator, care efectuează un număr limitat de operațiuni, AGI poate generaliza, învăța și înțelege.
În scrisoarea către consiliul de administrație, cercetătorii OpenAI au subliniat puterea IA și amenințarea potențială la adresa umanității, chiar dacă nu au precizat exact la ce aspecte ale securității se referă. Specialiștii din domeniul tehnologiei informației discută de multă vreme despre mașinile cu inteligență înaltă, care ar putea ajunge la concluzia că distrugerea umanității servește intereselor lor. Autorii scrisorii au menționat munca departamentului format prin unirea echipelor „Code Gen” și „Math Gen” - cercetătorii acestei subdiviziuni au studiat modalități de optimizare a modelelor existente de IA pentru a îmbunătăți calitatea raționamentelor sistemelor și a dirija potențialul lor către cercetarea științifică.
Dar există avertismentul și proiectul Q* în realitate?
Este greu de spus până acum. Sursele de la „The Verge” susțin că conducerea OpenAI nu a primit nicio scrisoare. Mai mult, aceiași informatori spun că progresul cercetătorilor în dezvoltarea tehnologiilor nu a avut impact asupra demisiei neașteptate a șefului companiei, Sam Altman. Înainte, media raporta că una dintre motivele demisiei sale este dorința de a continua îmbunătățirea IA, fără a ține cont de amenințările la adresa securității.
Pe de altă parte, insiderul Jimmy Apples a declarat în septembrie că OpenAI a reușit să dezvolte o inteligență artificială generală în cadrul cercetărilor interne. Și cu o zi înainte de demisie, Altman a spus că echipa sa a „mutat granițele descoperirilor în domeniul inteligenței artificiale”.
Cum să interpretăm aceste informații contradictorii?
Este posibil ca OpenAI să fi făcut un pas uriaș spre crearea unei IA generale sau să fie doar o strategie de marketing pentru a atrage atenția și finanțarea? Ce implicații ar avea o astfel de tehnologie pentru societate și pentru viitorul umanității? Aceste întrebări rămân deschise și merită discutate cu atenție și responsabilitate.