Informația: Într-un articol recent publicat de OpenAI, compania arată că „halucinațiile”, inventarea răspunsurilor, reprezintă un fenomen inevitabil din punct de vedere matematic, care are legătură atât cu tipul de date utilizat la antrenarea softului, cât și cu modul în care acesta este evaluat.
Context:
• Ratele de halucinație ale softurilor de IA sunt fundamental limitate de capacitatea sistemelor IA de a distinge răspunsurile valide de cele invalide.
• Pe timpul evaluărilor (benchmarks), softurile IA nu primesc puncte dacă dau informații greșite și dacă spun „nu știu”, stimulând astfel creșterea nivelului de încredere în răspunsuri și, astfel, al numărului de răspunsuri greșite.
• Pentru ca un soft de IA să-și evalueze cu grijă nivelul de certitudine cu privire la un răspuns ar trebui ca numărul de calcule să crească spectaculos, ceea ce înseamnă creșterea semnificativă a costurilor.
• Doar pentru softuri dedicate pentru activități economic unde costurile suplimentare în funcționarea IA nu depășesc costurile cu pierderile generate de răspunsuri greșite s-ar justifica astfel de modificări ale modului de funcționare a softurilor tip ChagGPT.
Sursa: Scientia.ro