Mi várható a mesterséges intelligenciától a közeljövőben?
Mi várható a mesterséges intelligenciától a közeljövőben?

Az Energiastratégia Intézet elemzésében a mesterséges intelligencia gazdasági és társadalmi következményeit vizsgálta.

A big data és a számítástechnika exponenciális fejlődése révén a mesterséges intelligencia (AI) jelenleg hatalmas mennyiségű adatot dolgozhat fel, és olyan feladatok ellátását is megtanulhatja, amelyek esetében az emberek kiváltása korábban elképzelhetetlen volt. A technológia fejlődését azonban akadályozhatja az AI-modellek tanításához használt emberi adatforrások kimerülése, és emiatt a fejlesztőknek új megoldásokat kell találniuk ezek képzésére.

A generatív AI, vagyis az új, eredeti tartalmak előállítására képes mesterséges intelligencia megjelenése viszont több ágazatban már most jelentős változásokkal jár – ám ennek az átalakulásnak nemcsak pozitív gazdasági, hanem negatív társadalmi következményei is lehetnek.

Elon Musk szerint a mesterséges intelligenciát fejlesztő vállalatok már tavaly kimerítették a modelljeik tanításához használható emberi adatforrásokat, ezért a fejlesztőknek a továbbiakban szintetikus, azaz maguk az AI-modellek által generált adatokat kell használniuk a rendszerek építéséhez és finomhangolásához. A módszert már számos vállalat alkalmazza: a Google és a ChatGPT-t fejlesztő OpenAI mellett a Meta Llama nevű, valamint a Microsoft a Phi 4 elnevezésű modelljénél is éltek már vele. Sőt Musk saját AI-jal foglalkozó vállalatánál, az xAI-nál is ezt az utat követik.

A szintetikus adatokkal fejlesztett mesterséges intelligencia a tanulás során kiértékeli a saját maga által készített tartalmakat, ezért a megoldásra egyfajta öntanító folyamatként tekinthetünk. A módszer ugyanakkor nem tudja teljesen helyettesíteni az emberi adatforrások használatát, alkalmazása során ugyanis a modellek hajlamosabbak a „hallucinációra”, azaz a pontatlan vagy értelmetlen eredmények produkálására.

Az Epoch AI nevű kutatóintézet 2024-es tanulmánya szerint ha a jelenlegi nagy nyelvi modellek (LLM) fejlesztési trendjei folytatódnak, akkor 2026 és 2032 között állhat elő az a helyzet, hogy elfogy az összes elérhető, emberek által készített szöveges adatforrás. Ettől kezdve a nyilvánosan hozzáférhető, emberek által írt szöveges adatforrások mennyisége már az LLM-ek fejlődésének korlátozó tényezőjévé válhat. A folyamatot körülbelül egy évvel gyorsítja fel a túltanítást (overtraining), amelyet a fejlesztők a modell hibáinak felfedésére alkalmaznak.

Az elemzés tovább olvasható az Energiastratégia Intézet publikációjában.

(Energiastratégia Intézet)

Fotó: Canva