A mesterséges intelligencia egyre többet hallucinál
A mesterséges intelligencia egyre többet hallucinál

A hallucináció, vagyis a helytelen, értelmetlen válaszok generálása, a különböző generatív mesterségesintelligencia-modellek működése során egyre inkább megfigyelhető anomália.

Az Energiastratégia Intézet cikke kiemeli, hogy az iparág jelentős energiákat mozgósít az egész technológia megbízhatóságát és gazdasági hasznát megkérdőjelező jelenség leküzdésére. A probléma javulását az idén tavasszal piacra dobott érvelő modellek megjelenésétől várták, ám úgy tűnik, hogy azok még a korábbi változatoknál is rosszabb hibaszázalékokkal dolgoznak.

A generatív mesterséges intelligenciának a működését – vagyis azét az MI-típusét, amelynek a célja, hogy korábban betanított adathalmazok alapján új adatsorokat (pl. szövegeket, képeket, videókat) generáljon – lényegében a megjelenéstől fogva sújtja az a probléma, hogy bizonyos esetekben nem létező vagy a külső szemlélő számára nem felfedezhető mintázatok alapján pontatlan, illetőleg teljesen helytelen, hamis vagy értelmetlen, esetleg a kérdés szempontjából irreleváns válaszokat hoz létre.

Jóllehet ez komoly anomália, a jelenség lényegében ezeknek a modelleknek a szándékolt működéséből fakad. A generatív mesterséges intelligenciát ugyanis nem arra tervezték, hogy tényszerűen pontos válaszokat adjon (noha az emberek jó része ezzel az elvárással közelít felé), hanem arra, hogy a belé táplált adatokból olyan kimenetet állítson elő, amely az algoritmusai alapján statisztikailag a legvalószínűbb elrendezést mutatja.

Vagyis például egy szöveget nem annak megbízhatóságát ellenőrizve ír meg, hanem úgy, hogy mindig megpróbálja kiszámolni, hogy az adott mondatban mi a legvalószínűbben következő helyes szó, és eközben egyáltalán nem értelmezi a kialakult mondatokat.

Mindez hibának tűnhet, és bizonyos tekintetben az is, ám az MI emiatt tud „kreatív” lenni, és új(szerűnek ható) kimeneteket produkálni. A Vectara nevű mesterségesintelligencia-fejlesztő cég kutatásai szerint az esetek 0,7%-ában még a legjobban teljesítő modellek is hallucinálnak, ám ez az arány sok esetben akár a 25%-ot is elérheti.

A publikáció tovább olvasható az Energiastratégia Intézet weboldalán.

(Energiastratégia Intézet)

Fotó: Canva

search icon