A korábbi brit miniszterelnök-helyettes szerint a felhajtás jóval nagyobb volt a legújabb modellek körül, mint amire azok képesek - írja a BBC. Ezek a modellek messze elmaradnak attól, hogy autonóm létezőként viselkedjenek és önállóan gondolkodjanak.
"Sok szempontból eléggé ostobák" - mondta a BBC Today című műsorában.
Clegg aztán szólalt meg, hogy a Meta közölte: Llama 2 néven ismert nagy nyelvi modellje mindenki számára ingyenesen használható lesz, nyílt forráskódú.
A nagy nyelvi modellek - a ChatGPT-hez hasonló chatbotokat működtető platformok - alapvetően hatalmas szöveges adathalmazok pontjait kötik össze, és kitalálják a következő szót egy sorozatban - mondta. Hozzátette, hogy az egyes szakértők által hangoztatott, egzisztenciális veszélyre vonatkozó figyelmeztetések olyan rendszerekre vonatkoznak, amelyek még nem léteznek.
A Meta döntése, hogy a Llama 2-t széles körben elérhetővé teszi a kereskedelmi vállalkozások és a kutatók számára, megosztotta a technológiai közösséget. Bizonyos értelemben kénytelen volt cselekedni - az első generációs Llama már a bevezetését követő egy héten belül kiszivárgott az interneten.
A nyílt forráskód kitaposott út ebben az ágazatban,
hiszen óriási mennyiségű ingyenes felhasználói tesztelési adatot biztosít, amely a hibák, problémák és fejlesztések azonosítását szolgálja.
A kockázat azonban az, hogy nagyon erős eszközt adnak ezzel a lépéssel az emberek kezébe.
A chatrobotok korábbi verzióit már manipulálták, hogy gyűlöletbeszédet terjesszenek, hamis információkat generáljanak és káros utasításokat adjanak. Vajon a Llama 2 esetében is megtörténhet mindez - és ha igen, a Meta mit tud tenni a folyamat megakasztásának érdekében?
A cég a Microsofttal partnerségben fejlesztette saját mesterséges intelligenciáját - ez azért érdekes, mert a Microsoft a ChatGPT-t létrehozó OpenAI-ba is több milliárd dollárt fektetett be.
Clegg szerint túlzó arról beszélni, hogy a rendszert az emberek kezébe adni olyan lenne, mintha az atombomba terveit nyújtanánk át a nagyközönségnek.
Szerinte a Meta nyílt forráskódú rendszere nem képes képeket generálni, nemhogy biofegyvert építeni. Azzal azonban egyetértett, hogy a mesterséges intelligenciát szabályozni kell.
"A modelleket már most is folyamatosan nyílt forráskódúvá teszik. A kérdés tehát nem az, hogy a nagy nyelvi modellek nyílt forráskódúvá válnak-e. A kérdés az, hogy hogyan lehet ezt a lehető legfelelősségteljesebben és legbiztonságosabban megtenni"- mondta.