Intelligens drónok, amelyek definiált kritériumok alapján önállóan képesek emberek megölésére, már néhány éven belül elérhetőek lehetnek. Az autonóm fegyverrendszerek azonban könnyen terroristák és diktátorok kezébe kerülhetnek, célzott gyilkosságokra és etnikai tisztogatásokra is alkalmazhatják őket. A mesterséges intelligenciával rendelkező fegyvereket ezért be kell tiltani - áll a csaknem kétezer szakértő, többek között Stephen Hawking asztrofizikus, Steve Wozniak, az Apple egyik alapítója és Noam Chomsky amerikai nyelvész által is aláírt nyílt levélben.
"A mesterséges intelligencia eljutott egy olyan pontra, ahol az ilyen rendszerek bevetése nem évtizedek, hanem csupán évek kérdése. A számítógépek irányította háborús eszközök fegyverkezési versenyét meg kell akadályozni" - fejtették ki a kutatók, akik felhívásukban azt is közölték, nem akarnak részt venni ilyen rendszerek kifejlesztésében. Véleményük szerint miután ezeket a fegyvereket kidolgozzák, csak idő kérdése, hogy megjelenjenek a feketepiacon, és terroristák kezébe kerüljenek.
A tudósok nyomatékosították: nem az ember irányította harci robotok ellen foglalnak állást, amelyeket például az Egyesült Államok is bevetett már terroristák elleni harcban.
Az úgynevezett "gyilkos robotok" védelmére kelő vélemények szerint a harcmezőkön életeket is menthetnek az önműködő eszközök.
A tudósok felhívásukat a Buenos Airesben rendezett, a mesterséges intelligenciával foglalkozó nemzetközi konferencia alkalmából tették közzé Londonban. Úgy vélik, ha bármelyik vezető katonai hatalom előrehalad az önműködő fegyverek kidolgozásában, "elkerülhetetlenné válik a globális fegyverkezési verseny, az pedig ahhoz vezethet, hogy az autonóm fegyverek válhatnak a jövő Kalasnyikovjaivá".
Változások jönnek januártól a nyugdíjtörvényben – a 13. havi nyugdíjat is érinti