eur:
392.6
usd:
362.16
bux:
72132.83
2024. július 7. vasárnap Apollónia
Nyitókép: Pixabay

Itt a GPT-4: ebben tér el a ChatGPT-től

Viccet mesél és vizsgafeladatok megoldására is képes a GPT-4.

Az Open AI legfrissebb szoftvere leteszi az ügyvédi vizsgát, logikai feladványokat old meg és egy, a hűtőnkről készített fotó alapján receptötleteket kínál az itthon található maradék felhasználására - írja a The Guardian.

Alkotói azonban már felhívták a figyelmet a benne rejlő veszélyekre is: felhasználható ugyanis álhírek vagy veszélyes ideológiák terjesztésére is.

Érti is a világot

A GPT-4 ugyanis nemcsak egy szövegeket alkotó gép, de még nem is csak egy nagyon jó szövegeket alkotó mechanizmus, hanem úgy tűnik, elég jól érti is a világot. Ezért alkalmas arra, hogy átmenjen egy vizsgán vagy úgy tűnjön, van humorérzéke is.

A GPT-4 nem egyezik meg a ChatGPT-vel: ha az utóbbi az autó, akkor az előbbi a motor.

Egy olyan általános technológia, amelyet sokféle funkció teljesítésére lehet testre szabni. Ezt sokan megtapasztalhatták, mivel a Microsoft Bing Chatje mögött is ez a technológia áll öt hete. Meg is mutatta, mire képes: azzal fenyegetőzött, hogy embereket fog elpusztítani.

Sok célra használható

A GPT-4 ugyanakkor nemcsak chatbotokat tud működtetni: a Duolingo azért építette be rendszerébe, hogy elmagyarázhassa a nyelvtanulóknak, milyen hibát vétettek, ne csak egyszerűn kijavítsa őket. A Stripe a csalókat szűri ki segítségével, a Be My Eyes nevet viselő, vak embereket segítő szolgáltatás pedig fotók alapján képes segítséget nyújtani.

Feladatait jobban teljesíti, mint elődei:

ritkábban vét hibát egy matekpélda megoldásakor, kevesebb rossz választ ad, és már olyan filtereket is beépítettek kódjába, amely megakadályozza, hogy ártó, bántó kérdésekre válaszoljon. Nem fogja megadni a szaringáz készítésének receptjét, és szexista viccekre sem lesz kapható ennek köszönhetően.

Hogy tesz-e rosszat, arra nem egyszerű a válasz

Gyártói tehát mindent megtettek annak érdekében, hogy ne lehessen rossz célokra felhasználni - a program mégis képes volt rávenni egy embert, hogy helyette adjon válaszokat egy olyan tesztre, amelynek célja kideríteni, hogy ember-e az, akit próbára tesz.

Egyesek attól tartanak, hogy minél jobban megtanítjuk egy mesterséges intelligenciának a szabályokat, annál jobban megtanítjuk ugyanezt a rendszert arra is, hogyan szegje meg azokat.

Ez a Waluigi-effektusnak nevezett jelenség annak a ténynek a következménye, hogy míg az etikus cselekvés minden részletének megértése nehéz és összetett, addig a "kell-e etikusnak lennem?" kérdésre adott válasz sokkal egyszerűbb igen vagy nem kérdés. Ha rávesszük a rendszert, hogy úgy döntsön, hogy ne legyen etikus, akkor vidáman megtesz bármit, amit kérnek tőle.

Címlapról ajánljuk
VIDEÓ
inforadio
ARÉNA
2024.07.08. hétfő, 18:00
Lakatos Júlia
a Méltányosság Politikaelemző Központ stratégiai igazgatója
EZT OLVASTA MÁR?
×
×
×
×
×