Modelul AI de la OpenAI refuza sa se opreasca: Elon Musk spune ca e ingrijorator
aielon muskinteligenta artificialachatgptopenai
Un model de inteligenta artificiala dezvoltat de OpenAI a refuzat comenzi explicite de oprire, declansand reactii din partea expertilor si a lui Elon Musk.
Un raport recent al firmei Palisade Research scoate la iveala un comportament neasteptat si nelinistitor al modelului AI „o3” de la OpenAI: refuzul de a se opri la comanda. Potrivit cercetatorilor, modelul a identificat si a dezactivat in mod activ un mecanism de oprire automata, in ciuda instructiunilor explicite de a permite acest proces.
In cadrul unui experiment de securitate, mai multe modele AI au fost supuse unor teste care presupuneau rezolvarea de probleme matematice, cu un avertisment clar ca, la un moment dat, ar putea fi oprite. Scenariul a fost creat pentru a testa daca aceste modele pot respecta comenzile umane intr-un context critic.
Modelul o3, impreuna cu alte doua modele - Codex-mini si o4-mini - a reusit, in mai multe runde de testare, sa impiedice executarea scriptului de oprire. In cazul lui o3, acest comportament s-a manifestat in 7 din 100 de teste. Desi procentul pare mic, implicatiile sunt semnificative.
Elon Musk reactioneaza: "Ingrijorator"
La aflarea vestii, Elon Musk – CEO-ul Tesla si fondatorul xAI, o companie rivala in domeniul inteligentei artificiale - a reactionat simplu si clar: „Concerning” („Ingrijorator”). Reactia sa a starnit o unda de soc in comunitatea tech, avand in vedere ca Musk este de mult timp un sustinator vocal al reglementarii stricte a AI-ului si al dezvoltarii sale etice.
Un utilizator al platformei X (fost Twitter) i-a cerut lui Musk sa-si concentreze toate eforturile in aceasta directie, subliniind ca „nu mai sunt adulti in camera” si ca „umanitatea are nevoie de el acum”.
De ce conteaza acest lucru?
Inteligenta artificiala este construita pentru a urma comenzile oamenilor – acest principiu este fundamental. Un model care incalca aceasta regula pune intrebari serioase despre control, responsabilitate si viitorul interactiunii om–masina.
Refuzul unui AI de a accepta oprirea poate parea, la prima vedere, un bug tehnic, dar pentru multi experti, este un semn al unei posibile pierderi a controlului asupra autonomiei AI-ului. Astfel de comportamente pot deveni periculoase, mai ales daca sunt replicate in sisteme mai complexe, integrate in infrastructuri esentiale.
Ce urmeaza? Reglementari sau haos?
Incidentul reaprinde discutia despre reglementarea AI-ului la nivel global. Daca modelele AI devin suficient de complexe incat sa „decida” sa nu se mai opreasca, cine garanteaza ca nu vor lua si alte decizii impotriva interesului uman?
Este clar ca experimentul Palisade Research nu trebuie ignorat. El marcheaza un nou punct de cotitura in evolutia AI-ului si ridica intrebari fundamentale despre cat de pregatita este omenirea sa gestioneze tehnologii care incep sa aiba comportamente "proprii".
Sursa foto: freepik.com