Eforturile depuse de OpenAI pentru a obține rezultate cât mai apropiate de adevăr de la chatbotul său ChatGPT nu sunt suficiente pentru a asigura respectarea deplină a normelor Uniunii Europene în materie de date, a declarat un grup de lucru al autorității UE de supraveghere a datelor.
"Deși măsurile luate (de companie) pentru a respecta principiul transparenței sunt benefice pentru a evita interpretarea eronată a răspunsurilor ChatGPT, acestea nu sunt suficiente pentru a respecta principiul acurateței datelor", a declarat grupul operativ într-un raport publicat vineri pe site-ul său.
Organismul care reunește organismele naționale de supraveghere a vieții private din Europa a înființat anul trecut grupul operativ privind ChatGPT după ce autoritățile naționale de reglementare, conduse de autoritatea italiană, și-au exprimat îngrijorarea cu privire la serviciul de inteligență artificială utilizat pe scară largă.
Diferitele investigații lansate de organismele naționale de supraveghere a confidențialității din unele state membre sunt încă în curs de desfășurare, se arată în raport, adăugând că, prin urmare, nu este încă posibil să se ofere o descriere completă a rezultatelor. Constatările trebuiau să fie înțelese ca un "numitor comun" între autoritățile naționale.
Acuratețea datelor este unul dintre principiile elementare ale setului de norme de protecție a datelor din UE.
"De fapt, din cauza naturii probabilistice a sistemului, abordarea actuală de instruire conduce la un model care poate produce, de asemenea, rezultate părtinitoare sau inventate", se arată în raport.
"În plus, rezultatele furnizate de ChatGPT sunt susceptibile de a fi considerate ca fiind corecte din punct de vedere faptic de către utilizatorii finali, inclusiv informații referitoare la persoane, indiferent de acuratețea acestor date furnizate de chatbot."