Taistelevat Robotit: Kiellettyä Ei Voida Sallia

Sisällysluettelo:

Taistelevat Robotit: Kiellettyä Ei Voida Sallia
Taistelevat Robotit: Kiellettyä Ei Voida Sallia

Video: Taistelevat Robotit: Kiellettyä Ei Voida Sallia

Video: Taistelevat Robotit: Kiellettyä Ei Voida Sallia
Video: Hören Deutsch A1 ⭐⭐⭐⭐⭐ Deutsche Verben (deutsche Sätze bilden) 2024, Saattaa
Anonim

Asiantuntijat tapasivat Genevessä, mutta sopimukseen ei päästy: Yhdysvallat ja Venäjä estivät kaiken työn. Ehkä tämä on ainoa kerta, kun hegemonit työskentelevät niin harmonisesti.

Taistelevat robotit: kiellettyä ei voida sallia
Taistelevat robotit: kiellettyä ei voida sallia

Epäinhimillisiä aseita koskevan yleissopimuksen muotoiset asiantuntijakokoukset päättyivät Genevessä päättämään ns. Taistelurobottien - autonomisten aseiden, jotka käyttävät tekoälyä kohteiden voittamiseen, kohtalosta. Mitään sopimuksia ei kuitenkaan saavutettu. Yhdysvallat, Venäjä, Etelä-Korea, Israel ja Australia olivat yksi vähemmistömaista, jotka ovat onnistuneet estämään mielipiteet kohti tappajarobottien täydellistä kieltämistä.

Joten vaikka maailmassa ei vielä ole toimivia itsenäisiä aseita, tekniikka on edelleen niin sanotusti inhimillinen - sitä voidaan kehittää ja tutkia. Mielenkiintoista on, että Yhdysvallat ja Venäjä ovat Tukholman rauhan tutkimuslaitoksen (SIPRI) mukaan kärjessä suurimpien aseiden viejien listalla. Myös Etelä-Korea, Israel ja Australia eivät jää jäljelle tässä sijoituksessa - ne ovat 20 parhaan markkinatoimijan joukossa.

Ja vaikka Kiina (viides aseiden viejä maailmassa, YK: n turvallisuusneuvoston pysyvä jäsen kannattaa taistelurobottien kieltämistä), se ei onnistunut säätämään asteikoita suuntaan kokousten aikana. Tänään 26 maata tukee avoimesti tekoälyn käytön kieltäminen sodassa. Muut välttävät selkeää kantaa) Ranska ja Saksa (kolmas ja neljäs aseiden viejä) tarjoavat allekirjoituksen asiakirjalle, joka vakiinnuttaisi ihmisen ensisijaisuuden tekoälyyn nähden, mutta ne ovat todennäköisempiä niiden puolella, jotka haluavat kehittää itsenäisiä taisteluvälineitä.

"On varmasti pettymys, että pieni joukko armeijan jättiläisiä voi pidättää enemmistön tahdon", kommentoi Killer Robotsin pysäyttämiskampanjan koordinaattori Mary Verhem Geneven kokousten lopputulosta.

Todellakin, tilanne näyttää olevan aseellisten monopolipohjien salaliitto, koska Yhdysvallat ja Venäjä eivät yleensä pääse ainakin jonkinlaiseen kompromissiin tärkeissä asioissa. Otetaan syyrialainen: Washington ja Moskova estivät toistensa päätöslauselmat käytyään kemiallisia aseita Syyriassa tänä keväänä. Tukehtuvat kaasut ja muut myrkylliset aineet sotilastarkoituksiin muuten kiellettiin aiemmin epäinhimillisiä aseita koskevalla yleissopimuksella.

Seuraava tapaaminen tappajarobottien kohtalosta pidetään Genevessä marraskuussa.

Miksi he haluavat kieltää itsenäiset aseet

Robottisodankäynnin kieltäjät väittävät, että taistelukenttä ei ole paikka tekoälylle. Heidän mielestään tällaiset tekniikat ovat valtava uhka. Ainakin tänään ei ole selvää, miten kone erottaa taistelijat (ne, jotka osallistuvat suoraan vihollisuuksiin) muista kuin taistelijoista (armeijan palveluhenkilöstö, joka voi käyttää aseita vain itsepuolustukseen) ja siviileistä yleensä. On mahdollista, että työ tappaa haavoittuneet ja antautuvat, mikä on nykyisten sodankäynnin sääntöjen vastaista.

Mikä estää työtä keskeyttämästä kaikkia konfliktin osapuolia, jopa tällaisten aseiden omistajia? Tekoälyn elementtejä käytetään jo menestyksekkäästi sotatarvikkeissa, ohjuksissa; robotteja houkuttelee tiedustelu, mutta lopullinen sana kuuluu edelleen ihmisille. Autonomiset aseet eivät noudata komentajien käskyjä - siksi he ovat itsenäisiä. Siksi eri maiden armeijan kenraalit suhtautuvat skeptisesti koneiden tuomiseen henkilöstön joukkoon.

Ja vielä yksi avoin kysymys on kansainvälinen terrorismi. Autonominen asetekniikka voi joutua vääriin käsiin, ja se voidaan lopulta hakkeroida. Vuosi sitten Venäjän presidentti Vladimir Putin sanoi, että maailman hallitsija tulee olemaan johtaja tekoälyn kehittämisessä. Autonomisten aseiden kohdalla maailman hallitsijaksi tulee se, joka saa tällaisen tekniikan käyttöön. Ja tätä varten tarvitset itse asiassa vain tietokoneen ja väistäjän, joka kulkee turvajärjestelmien läpi. Pentagon, muuten, on hakkeroitu useammin kuin kerran. Siksi kukaan ei voi antaa takeita siitä, että itsenäiset aseet pysyvät loukkaamattomina.

On myös epäselvää, kuka on oikeudellisesti vastuussa, jos sotarikos tapahtuu autonomisen asejärjestelmän toiminnan seurauksena. Aseita käyttävä insinööri, ohjelmoija, valmistaja tai komentaja? Jos vastuuta ei voida määritellä kansainvälisen humanitaarisen oikeuden vaatimalla tavalla, voidaanko tällaisten järjestelmien käyttöönotto tunnustaa lailliseksi tai eettisesti perustelluksi?”Punaisen Ristin kansainvälinen komitea toteaa.

Mielenkiintoista on, että tutkijat kannattivat myös taistelurobottien kieltämistä. Tämän vuoden heinäkuussa yli kaksi tuhatta tutkijaa, erityisesti Teslan ja SpaceX: n luoja Elon Musk ja DeepMindin perustajat, allekirjoittivat asiakirjan, jonka mukaan he eivät kehittä tappavia itsenäisiä aseita. Google teki saman. Tekniikan jättiläinen on luopunut Pentagonin Maven-projektista. Ja vuonna 2017 useat tutkijat ovat jo pyytäneet YK: ta kieltämään tappajarobottien luomisen.

Muuten, tekoälyn kysymys sodassa ilmestyi YK: n asialistalle vuoden 2013 lopussa, mutta käytännössä mikään ei ole muuttunut sen jälkeen. Vasta tänä vuonna asiantuntijakokoukset alkoivat epäinhimillisiä aseita koskevan yleissopimuksen muodossa. Toisin sanoen kesti enemmän kuin neljä vuotta päästäksesi johonkin enemmän tai vähemmän käytännön tasoon.

Miksi he eivät halua kieltää itsenäisiä aseita

Riippumatta siitä kuinka surkealta se kuulostaa, asevarustelukilpailu on tärkein syy, miksi he eivät halua kieltää tappajarobotteja. Putinilla on oikeus: kuka ensin saa itsenäiset aseet, se hallitsee maailmaa. Virallisesti tämä syy ilmaistaan.

Kiellon vastustajien pääasiallinen argumentti on mahdoton erottaa siviili tekoäly armeijasta. Emme kiellä keittiöveitsiä vain siksi, että terroristit voivat käyttää niitä. Itse asiassa on käytännössä mahdotonta erottaa tekoälyn siviilikehitys armeijasta. Mutta nyt puhumme tämän aseen kieltämisestä, joka pystyy itsenäisesti määrittämään ja hyökkäämään kohteisiin. Tämä voi olla Maven-projekti, jota Yhdysvaltain puolustusministeriö työskentelee yhdessä Booz Allen Hamiltonin kanssa (Google kieltäytyi sopimuksesta).

Maven-kehittäjät haluavat opettaa droneja analysoimaan kuvia, erityisesti satelliiteista, ja - mahdollisesti - tunnistamaan hyökkäyskohteet. Pentagon aloitti projektin valmistelun huhtikuussa 2017 ja toivoi saavansa ensimmäiset työalgoritmit vuoden loppuun mennessä. Mutta Googlen työntekijöiden demarchin kautta kehitys viivästyi. Tämän vuoden kesäkuusta lähtien järjestelmä pystyi Gizmodon mukaan erottamaan alkeiskohteet - autot, ihmiset, mutta vaikeissa tilanteissa se osoittautui täysin merkityksettömäksi. Jos autonomisten aseiden kielto kuitenkin hyväksytään YK: n tasolla, projekti on romutettava, kun taas Pentagon väittää, että niiden kehitys voi pelastaa ihmishenkiä, koska se voidaan ohjelmoida toimimaan tarkemmin ja luotettavammin ihmisiin verrattuna.

"Sinun on ymmärrettävä, että puhumme tekniikasta, että sillä ei ole toimivia näytteitä. Ajatus tällaisista järjestelmistä on edelleen hyvin pinnallinen", totesi Geneven Venäjän ulkoministeriössä pidetyn kokouksen aattona. - Mielestämme kansainvälistä oikeutta, erityisesti humanitaarista alaa, voidaan soveltaa itsenäisiin aseisiin. Niitä ei tarvitse nykyaikaistaa tai mukauttaa järjestelmiin, joita ei vielä ole."

No, ja vielä yksi todellinen, muttei ilmaistu syy on raha. Nykyään armeijan tekoälyteknologian markkinoiden arvioidaan olevan yli kuusi miljardia dollaria. Mutta vuoteen 2025 mennessä luku kolminkertaistuu - lähes 19 miljardiin, amerikkalaisen MarketsandMarkets -yhtiön analyytikoiden mukaan. Suurimmille aseiden viejille tämä on hyvä motivaatio estää kaikki tappajarobottien kehittämisen rajoitukset.

Edistymistä ei voida pysäyttää

Itsenäisten aseiden kieltämisen kannattajat huomauttavat, että tekniikka kehittyy hyvin nopeasti ja tekoälystä tulee lopulta ase - ajan kysymys. Heidän sanoissaan on logiikkaa. Tekoäly on olennainen osa nyt jatkuvaa tieteellistä ja teknologista vallankumousta. On pidettävä mielessä, että tekninen kehitys liittyy tavalla tai toisella sotilasoperaatioihin. Kolmas tieteellinen ja teknologinen vallankumous kesti 20-luvun 50-luvun puoliväliin saakka, ts. Sen huippu laski toisen maailmansodan aikaan.

Vuonna 1949 Geneve hyväksyi yleissopimuksen siviilien suojelusta sodan aikana. Sodanjälkeisenä aikana he täydensivät myös vuoden 1907 IV Haagin yleissopimusta, jossa määriteltiin sodankäynnin säännöt. Toisin sanoen toisen maailmansodan kauhuista tuli tämän prosessin katalysaattori. Joten ihmisoikeuksien puolustajat eivät halua odottaa kolmatta maailmansotaa suojellakseen ihmiskuntaa itsenäisiltä aseilta. Siksi tappajarobottien kohtalon päättäminen on nyt tarpeen, he vaativat.

Human Rights Watch -asiantuntijoiden mukaan taistelurobottien käyttö on ristiriidassa Martensin julistuksen kanssa - joka on sodan laeista ja tapoista vuonna 1899 tehdyn Haagin yleissopimuksen johdanto-osa. Toisin sanoen tappajarobotit rikkovat ihmiskunnan lakeja ja yleisen tietoisuuden vaatimuksia (kanta vahvistettiin IV Haagin yleissopimuksessa).

"Meidän on tehtävä yhdessä sellaisten asejärjestelmien ennaltaehkäisevä kielto, ennen kuin ne leviävät ympäri maailmaa", kertoi Bonties Doherty, Human Rights Watchin aseiden osaston vanhempi tutkija.

Tappajarobottien kieltäminen ei tällä kertaa onnistunut. Ennakoitavasti myös marraskuun kokoukset ovat hedelmättömiä. Totta, melkein kaikki maat ovat yhtä mieltä - tekniikan ei voida antaa liikkua painovoiman avulla ja taistelurobotit tarvitsevat tällaisen pysäytysnosturin. Mutta ei ole vieläkään selvää, eikö ihmiskunnalla ole aikaa vetää sitä tarpeen mukaan.

Suositeltava: