Roboți De Luptă: Interzisul Nu Poate Fi Permis

Cuprins:

Roboți De Luptă: Interzisul Nu Poate Fi Permis
Roboți De Luptă: Interzisul Nu Poate Fi Permis

Video: Roboți De Luptă: Interzisul Nu Poate Fi Permis

Video: Roboți De Luptă: Interzisul Nu Poate Fi Permis
Video: Pacienții cu coronavirus vor fi asistați de roboți 2024, Mai
Anonim

Experții s-au întâlnit la Geneva, dar nu s-a putut ajunge la un acord: Statele Unite și Rusia au blocat toate lucrările. Poate că acesta este singurul moment în care hegemonii funcționează atât de armonios.

Roboți de luptă: interzisul nu poate fi permis
Roboți de luptă: interzisul nu poate fi permis

Întâlnirile experților în formatul Convenției privind armele inumane s-au încheiat la Geneva pentru a decide soarta așa-numiților roboți de luptă - arme autonome care folosesc inteligența artificială pentru a învinge țintele. Cu toate acestea, nu s-au putut ajunge la acorduri. Statele Unite, Rusia, Coreea de Sud, Israel și Australia au fost printre națiunile minoritare care au reușit să blocheze sentimentul către o interdicție completă a roboților ucigași.

Deci, deși nu există încă o armă autonomă funcțională în lume, tehnologia rămâne, ca să spunem așa, umană - poate fi dezvoltată și cercetată. Interesant este faptul că Statele Unite și Rusia, potrivit Institutului de Cercetare a Păcii din Stockholm (SIPRI), se află în fruntea listei celor mai mari exportatori de arme. Coreea de Sud, Israel și Australia, de asemenea, nu rămân în urmă în acest clasament - sunt printre primii 20 de jucători de pe piață.

Și, deși China (al cincilea exportator de arme din lume, membru permanent al Consiliului de Securitate al ONU pledează pentru interzicerea roboților de luptă, nu a reușit să schimbe balanța în direcția sa în timpul întâlnirilor. Astăzi, 26 de țări susțin în mod deschis interzicerea utilizării inteligenței artificiale în război. Alții se feresc de o poziție clară) Franța și Germania (al treilea și al patrulea exportator de arme) se oferă să semneze un document care ar consolida supremația omului asupra inteligenței artificiale, dar sunt mai probabile de partea celor care doresc să dezvolte vehicule de luptă autonome.

„Este cu siguranță dezamăgitor faptul că un grup mic de giganți militari poate împiedica voința majorității”, a comentat Mary Verhem, coordonatorul Campaniei pentru a opri roboții ucigași, cu privire la rezultatul întâlnirilor de la Geneva.

Într-adevăr, situația pare a fi o conspirație a magnatului armat al monopolului, dat fiind că Statele Unite și Rusia nu pot ajunge, de obicei, la un fel de compromis cu privire la chestiuni importante. Luați-o pe cea siriană: Washingtonul și Moscova s-au blocat reciproc hotărârile după ce au folosit arme chimice în Siria în această primăvară. Apropo, gazele asfixiante și alte substanțe toxice în scopuri militare au fost interzise anterior prin Convenția privind armele inumane.

Următoarea întâlnire despre soarta roboților ucigași va avea loc la Geneva în noiembrie.

De ce vor să interzică armele autonome

Susținătorii interzicerii războiului robot insistă asupra faptului că câmpul de luptă nu este un loc pentru inteligența artificială. În opinia lor, astfel de tehnologii reprezintă o amenințare imensă. Cel puțin, astăzi nu este clar modul în care mașina va distinge între combatanți (cei care sunt implicați direct în ostilități) de necombatanți (personalul serviciului armatei care poate folosi doar arme pentru autoapărare) și civili în general. Există posibilitatea ca lucrarea să-i omoare pe răniți și pe cei care se predă, ceea ce este interzis de regulile actuale de război.

Ce împiedică munca să întrerupă toate părțile la conflict, chiar și proprietarii de astfel de arme? Elementele de inteligență artificială sunt deja utilizate cu succes în echipamente militare, rachete; roboții sunt atrași pentru recunoaștere, dar cuvântul final rămâne în continuare la oameni. Armele autonome nu vor respecta ordinele comandanților - de aceea sunt autonome. De aceea, generalii militari din diferite țări sunt sceptici cu privire la introducerea mașinilor în rândul personalului.

Și o altă întrebare deschisă este terorismul internațional. Tehnologia autonomă a armelor poate cădea pe mâini greșite și poate fi în cele din urmă piratată. În urmă cu un an, președintele rus Vladimir Putin a spus că conducătorul lumii va fi cel care va deveni lider în dezvoltarea inteligenței artificiale. În cazul armelor autonome, cel care va avea acces la astfel de tehnologii va deveni conducătorul lumii. Și pentru aceasta, de fapt, aveți nevoie doar de un computer și un dodger care vor trece prin sistemele de securitate. Apropo, Pentagonul a fost piratat de mai multe ori. În consecință, nimeni nu poate oferi garanții că armele autonome vor rămâne inviolabile.

De asemenea, nu este clar cine va fi responsabil legal dacă o crimă de război este comisă ca urmare a funcționării sistemului autonom de arme. „Inginerul, programatorul, producătorul sau comandantul care a folosit arma? Dacă răspunderea nu poate fi definită conform cerințelor dreptului internațional umanitar, poate fi recunoscută implementarea unor astfel de sisteme ca fiind legală sau etic justificată?”, Notează Comitetul Internațional al Crucii Roșii.

Interesant este faptul că oamenii de știință au susținut și interzicerea roboților de luptă. În luna iulie a acestui an, peste două mii de oameni de știință, în special creatorul Tesla și SpaceX Elon Musk și cofondatorii DeepMind, au semnat un document că nu vor dezvolta arme autonome letale. Google a procedat la fel. Gigantul tehnologic a renunțat la lucrul la proiectul Maven al Pentagonului. Și în 2017, un număr de oameni de știință au cerut deja ONU să interzică crearea de roboți ucigași.

Apropo, problema inteligenței artificiale în război a apărut pe agenda Națiunilor Unite la sfârșitul anului 2013, dar practic nimic nu s-a schimbat de atunci. Abia anul acesta, au început întâlnirile de experți în formatul Convenției privind armele inumane. Adică, a fost nevoie de mai mult de patru ani pentru a ajunge la un plan mai mult sau mai puțin practic.

De ce nu vor să interzică armele autonome

Oricât de banal ar suna, cursa înarmărilor este principalul motiv pentru care nu vor să interzică roboții ucigași. Putin are dreptate: oricine primește arme autonome mai întâi va domina lumea. Oficial, acest motiv este exprimat.

Principalul argument al oponenților interdicției este imposibilitatea de a separa inteligența artificială civilă de cea militară. Nu vom interzice cuțitele de bucătărie doar pentru că teroriștii le pot folosi. Într-adevăr, este practic imposibil să separi dezvoltarea civilă a inteligenței artificiale de cea militară. Dar acum vorbim despre interzicerea acestei arme, care va putea determina și ataca în mod independent țintele. Acesta ar putea fi proiectul Maven, la care Departamentul Apărării al SUA lucrează împreună cu Booz Allen Hamilton (Google a refuzat contractul).

Dezvoltatorii Maven vor să învețe dronele să analizeze imaginile, în special de la sateliți și - potențial - să identifice ținte pentru atac. Pentagonul a început să lucreze la proiect în aprilie 2017 și spera să obțină primii algoritmi de lucru până la sfârșitul anului. Dar prin demersul angajaților Google, dezvoltarea a fost întârziată. Începând cu luna iunie a acestui an, potrivit Gizmodo, sistemul ar putea face distincția între obiecte elementare - mașini, oameni, dar s-a dovedit a fi complet nesemnificativ în situații dificile. Dacă interzicerea armelor autonome este totuși adoptată la nivelul ONU, proiectul va trebui eliminat, în timp ce Pentagonul susține că dezvoltarea lor poate salva vieți, deoarece poate fi programat să funcționeze mai precis și mai fiabil în comparație cu oamenii.

"Trebuie să înțelegeți că vorbim despre tehnologie, că nu are probe care să funcționeze. Ideea unor astfel de sisteme este încă foarte superficială", a remarcat în ajunul reuniunii de la Geneva la Ministerul de Externe rus. - În opinia noastră, dreptul internațional, în special sectorul umanitar, poate fi aplicat armelor autonome. Nu au nevoie de modernizare sau adaptare la sisteme care nu există încă.”

Ei bine, și încă un motiv real, dar nu exprimat, sunt banii. Astăzi, piața tehnologiilor militare de inteligență artificială este estimată la peste șase miliarde de dolari. Dar până în 2025 cifra se va tripla - până la aproape 19 miliarde, potrivit analiștilor companiei americane MarketsandMarkets. Pentru cei mai mari exportatori de arme, aceasta este o motivație bună pentru a bloca orice restricții privind dezvoltarea roboților ucigași.

Progresul nu poate fi oprit

Susținătorii interzicerii armelor autonome remarcă faptul că tehnologia se dezvoltă foarte rapid, iar inteligența artificială va deveni în cele din urmă o armă - o chestiune de timp. Există o logică în cuvintele lor. Inteligența artificială este o parte integrantă a celei de-a patra revoluții științifice și tehnologice, care continuă acum. Trebuie avut în vedere faptul că progresul tehnic este într-un fel sau altul asociat cu operațiunile militare. A treia revoluție științifică și tehnologică a durat până la mijlocul anilor 50 ai secolului XX, adică vârful ei a căzut pe perioada celui de-al doilea război mondial.

În 1949, Geneva a adoptat Convenția pentru protecția persoanelor civile în timp de război. În perioada postbelică, acestea au completat și Convenția de la Haga din 1907, care stabilea regulile pentru desfășurarea războiului. Adică, ororile celui de-al doilea război mondial au devenit catalizatorul acestui proces. Așadar, apărătorii drepturilor omului nu vor să aștepte al treilea război mondial pentru a proteja umanitatea de armele autonome. De aceea, este necesar să decidem soarta roboților ucigași acum, insistă ei.

Potrivit experților Human Rights Watch, utilizarea roboților de luptă contrazice Declarația Martens - preambulul Convenției de la Haga din 1899 privind legile și obiceiurile de război. Cu alte cuvinte, roboții ucigași încalcă legile umanității și cerințele conștiinței publice (poziția a fost confirmată în Convenția IV de la Haga).

„Trebuie să lucrăm împreună pentru a impune o interdicție preventivă asupra acestor sisteme de arme înainte ca acestea să se răspândească în întreaga lume”, a spus Bonnie Doherty, cercetător principal în departamentul de arme de la Human Rights Watch.

Ei bine, de data aceasta nu a funcționat pentru a interzice roboții ucigași. În mod previzibil, întâlnirile din noiembrie vor fi, de asemenea, infructuoase. Este adevărat, aproape toate țările sunt de acord - tehnologia nu poate fi lăsată să curgă prin gravitație, iar roboții de luptă au nevoie de o astfel de macara. Dar încă nu este clar dacă omenirea va avea timp să o tragă atunci când va apărea nevoia.

Recomandat: