eur:
411.36
usd:
392.46
bux:
79229.24
2024. november 21. csütörtök Olivér
Nyitókép: Pexels.com

Vége lehet Európában a nagy ChatGPT-játéknak

Ha túl szigorú lesz a mesterséges intelligencia (MI) szabályozása Európában, a cég kivonulhat erről a piacról.

Az Európai Unió döntéshozói május elején fogadták el azt a törvénytervezetet, amelyből az első átfogó MI-törvénykezése lehet. Sam Altman, a szövegalapú ChatGPT és a képgeneráló Dall-E mögött is álló OpenAI vezetője szerint túl szigorú lesz az uniós szabályozás – írja a hvg.hu.

Egy londoni panelbeszélgetésen arról beszélt, hogy bár a cége megpróbál majd megfelelni az uniós előírásoknak, az EU által definiált „magas kockázatú rendszerek” meghatározása meglehetősen zavarja. Az uniós tervezet jelenleg alapvetően három kockázati csoportba sorolja a mesterséges intelligencián alapuló rendszereket, és a jelenlegi törvényjavaslat alapján a ChatGPT, valamint a GPT-4 nyelvi modellek is magas kockázatúnak számítana. Igyekeznek majd megfelelni a törvénynek, de észszerű keretek között nem sikerül, akkor egyszerűen leállítják az EU-ban a szolgáltatás működését. Vagyis a ChatGPT – és az OpenAI egyéb fejlesztései – elérhetetlenné válnak az Európai Unióban, a cég kivonul a piacról – fenyegetőzött Sam Altman.

Az uniós adatvédelmi testület vezetője korábban úgy nyilatkozott, figyelemmel kísérik a ChatGPT-t, hogy a bizottság megbizonyosodjon arról, hogy az megfelel az adatvédelmi törvényeknek.

Altman egyébként az amerikai Szenátus előtt nemrég arról beszélt, hogy a mesterséges intelligencia azonnali szabályozására lenne szükség, mert az beavatkozhat a választásokba. Most, Londonban már úgy fogalmazott, hogy az amerikai és az európai megközelítés között kellene megtalálni az arany középutat a szabályozásban. Azt is kijelentette a panelbeszélgetésen, nem akar olyan szabályozást, amely korlátozza a felhasználók hozzáférését a technológiához, és olyat sem, amely árthat a kisebb cégeknek vagy a nyílt forráskódú MI-mozgalomnak.

A világon elsőként Olaszország döntött úgy, hogy betiltja a ChatGPT használatát, és már egyre több ország vizsgálja ugyanezt a lehetőséget.

Címlapról ajánljuk
Az Ukrajnának szánt harci felszerelések adományozása ügyében nyomoz a szlovák rendőrség
Tudósítónktól

Az Ukrajnának szánt harci felszerelések adományozása ügyében nyomoz a szlovák rendőrség

Szlovákiában a rendőrség Szervezett Bűnözés Elleni Hivatala létrehozott egy különleges nyomozócsoportot, melynek feladata az elmúlt választási időszakban Ukrajnának adott szlovák katonai felszerelések adományozásával kapcsolatos jogsértések felderítése. A vizsgálat kiterjed az akkori védelmi minisztérium és a kormány tagjainak döntéseire.

Fontos kérések az érkező havazás miatt, mindenkit érint

Bár a meteorológiai prognózisokban mindig van némi bizonytalanság, az aktuális előrejelzések szerint november 22-én, pénteken akár nagyobb mennyiségű hó is hullhat Budapesten.
VIDEÓ
inforadio
ARÉNA
2024.11.22. péntek, 18:00
Bernáth Tamás
Nyugat-Balkán szakértő, a Mathias Corvinus Collegium oktatója
Megjött az új extraprofitadó-rendelet: így marad 2025-ben velünk a bankok, kiskercégek, biztosítók plusz sarca

Megjött az új extraprofitadó-rendelet: így marad 2025-ben velünk a bankok, kiskercégek, biztosítók plusz sarca

Ahogyan arra számítani lehetett, megérkezett a 2025-ben még fennmaradó extraprofitadókról szóló kormánydöntés. A Magyar Közlöny csütörtök esti számában ugyanis megjelent a kormány legújabb rendelete, mely azt szabályozza, hogy miként marad velünk a bankok extraprofitadója, valamint a biztosítók és kiskereskedelmi cégek pótadója. Az eredetileg két évre ígért extraprofitadók egy jelentős része tehát négy évig hatályban marad. A kormány rendelete egyúttal azt is tartalmazza, hogy mely extraprofitadóktól szabadulhatnak meg jövőre az érintett ágazatok. Ezek szerint örülhetnek a gyógyszergyártók, a kőolaj-előállításban érdekeltek, a távközlési szektor cégei, a feldolgozóipari gyártók (bioetanol, keményítő, napraforgóolaj), valamint a megújuló energiát termelők, bányajáradék-alanyok.

EZT OLVASTA MÁR?
×
2024. november 21. 10:19
×
×
×
×