Laboratorul „Robot ucigaș” se confruntă cu boicotul unor experți în domeniul inteligenței artificiale

  • Vova Krasen
  • 0
  • 3386
  • 479

Comunitatea de inteligență artificială (AI) are un mesaj clar pentru cercetătorii din Coreea de Sud: Nu faceți roboți ucigași.

Aproape 60 de experți ai AI și robotică din aproape 30 de țări au semnat o scrisoare deschisă care solicită un boicot împotriva lui KAIST, o universitate publică din Daejeon, Coreea de Sud, despre care se spune că „dezvoltă [tehnologii de inteligență artificială pentru a fi aplicate militarilor arme, care se alătură competiției globale pentru dezvoltarea armelor autonome ", se arată în scrisoarea deschisă.

Cu alte cuvinte, KAIST ar putea cerceta modul de fabricare a armelor AI de grad militar. [5 motive pentru a te teme de roboți]

Conform scrisorii deschise, experții AI din întreaga lume s-au arătat îngrijorați când au aflat că KAIST - în colaborare cu Hanwha Systems, principala companie de armament din Coreea de Sud - a deschis o nouă unitate în 20 februarie, denumită Centrul de Cercetare pentru Convergența Apărării Naționale și Inteligență artificială.

Având în vedere că Organizația Națiunilor Unite (U.N.) discută deja modul de protejare a comunității internaționale împotriva roboților AI ucigași, „este regretabil că o instituție de prestigiu precum KAIST pare să accelereze cursa armelor pentru a dezvolta astfel de arme”, au scris cercetătorii în scrisoare.

Pentru a descuraja puternic noua misiune a lui KAIST, cercetătorii boicotează universitatea până când președintele acesteia nu va clarifica că centrul nu va dezvolta „arme autonome fără control uman semnificativ”, au spus scriitorii.

Acest boicot va fi atotcuprinzător. "De exemplu, nu vom vizita KAIST, vom vizita vizitatori din KAIST sau vom contribui la orice proiect de cercetare care implică KAIST", au spus cercetătorii.

Dacă KAIST continuă să dezvolte armele autonome, ar putea duce la o a treia revoluție în război, au spus cercetătorii. Aceste arme „au potențialul de a fi arme de teroare”, iar dezvoltarea lor ar putea încuraja războiul să fie luptat mai rapid și la o scară mai mare, au spus.

Depotații și teroriștii care dobândesc aceste arme le-ar putea folosi împotriva populațiilor nevinovate, eliminând orice constrângeri etice cu care ar putea face față luptători obișnuiți,.

O astfel de interdicție împotriva tehnologiilor mortale nu este nouă. De exemplu, Convențiile de la Geneva interzic forțelor armate să folosească arme laser orbitoare direct împotriva oamenilor, raportate anterior. În plus, agenții nervoși precum sarina și VX sunt interzise de Convenția privind armele chimice, la care participă peste 190 de națiuni.

Cu toate acestea, nu orice țară este de acord să acopere protecții precum acestea. Hanwha, compania care se asociază cu KAIST, ajută la producerea de muniții în grup. Astfel de muniții sunt interzise în temeiul Convenției U.N. privind munițiile în grup și mai mult de 100 de națiuni (deși nu Coreea de Sud) au semnat convenția împotriva lor, au spus cercetătorii.

Hanwha s-a confruntat cu repercusiuni pentru acțiunile sale; bazate pe motive etice, fondul de pensii distribuit public în Norvegia de 380 de miliarde de dolari nu investește în stocul Hanhwa, au spus cercetătorii.

În loc să lucreze la tehnologii autonome de ucidere, KAIST ar trebui să lucreze la dispozitivele AI care îmbunătățesc, nu dăunează, viețile omului, au spus cercetătorii.

Între timp, alți cercetători au avertizat de ani buni împotriva roboților AI ucigași, inclusiv Elon Musk și regretatul Stephen Hawking.

Articolul original pe .




Nimeni nu a comentat acest articol încă.

Cele mai interesante articole despre secrete și descoperiri. O mulțime de informații utile despre tot
Articole despre știință, spațiu, tehnologie, sănătate, mediu, cultură și istorie. Explicați mii de subiecte pentru a ști cum funcționează totul