Bekæmpelse Af Robotter: Forbudt Kan Ikke Tillades

Indholdsfortegnelse:

Bekæmpelse Af Robotter: Forbudt Kan Ikke Tillades
Bekæmpelse Af Robotter: Forbudt Kan Ikke Tillades

Video: Bekæmpelse Af Robotter: Forbudt Kan Ikke Tillades

Video: Bekæmpelse Af Robotter: Forbudt Kan Ikke Tillades
Video: Robotter ruller ud på byggepladsen - og de vil samarbejde 2024, Kan
Anonim

Eksperterne mødtes i Genève, men der kunne ikke opnås enighed: USA og Rusland blokerede alt arbejde. Måske er dette den eneste gang, hvor hegemoner fungerer så harmonisk.

Bekæmpelse af robotter: forbudt kan ikke tillades
Bekæmpelse af robotter: forbudt kan ikke tillades

Møder med eksperter i form af konventionen om umenneskelige våben sluttede i Genève for at afgøre skæbnen for de såkaldte kamprobotter - autonome våben, der bruger kunstig intelligens til at besejre mål. Imidlertid kunne der ikke opnås nogen aftaler. USA, Rusland, Sydkorea, Israel og Australien var blandt mindretalsnationerne, der har formået at blokere stemningen mod et fuldstændigt forbud mod dræberrobotter.

Så selvom der stadig ikke er noget fungerende autonomt våben i verden, forbliver teknologien så at sige human - den kan udvikles og undersøges. Interessant nok er USA og Rusland ifølge Stockholm Peace Research Institute (SIPRI) øverst på listen over de største våbeneksportører. Sydkorea, Israel og Australien falder heller ikke bagud i denne rangordning - de er blandt de 20 største markedsaktører.

Og selvom Kina (den femte eksportør af våben i verden, et permanent medlem af FNs Sikkerhedsråd går ind for et forbud mod kamprobotter, formåede det ikke at tilpasse skalaen i sin retning under møderne. I dag støtter 26 lande åbent forbud mod brug af kunstig intelligens i krig. Andre viger væk fra en klar holdning) Frankrig og Tyskland (den tredje og fjerde våbeneksportør) tilbyder at underskrive et dokument, der vil konsolidere menneskets forrang frem for kunstig intelligens, men de er mere sandsynlige på siden af dem, der ønsker at udvikle autonome kampvogne.

”Det er bestemt skuffende, at en lille gruppe af militære giganter kan holde tilbage majoritetens vilje,” kommenterede Mary Verhem, koordinator for kampagnen for at stoppe dræberrobotter, om resultatet af møderne i Genève.

Situationen ligner faktisk en sammensværgelse af væbnede monopoltycooner, da USA og Rusland normalt ikke kan nå i det mindste en slags kompromis om vigtige spørgsmål. Tag den syriske: Washington og Moskva blokerede gensidigt hinandens beslutninger efter brug af kemiske våben i Syrien i foråret. Kvælende gasser og andre giftige stoffer til militære formål var forresten tidligere forbudt af konventionen om umenneskelige våben.

Det næste møde om dræberroboters skæbne finder sted i Genève i november.

Hvorfor ønsker de at forbyde autonome våben

Tilhængere af robotkrigsforbudet insisterer på, at slagmarken ikke er et sted for kunstig intelligens. Efter deres mening udgør sådanne teknologier en enorm trussel. I det mindste er det i dag ikke klart, hvordan maskinen skelner mellem kæmpere (dem, der er direkte involveret i fjendtligheder) fra ikke-kæmpende (hærtjenestepersonale, der kun kan bruge våben til selvforsvar) og civile generelt. Der er en mulighed for, at arbejdet vil dræbe de sårede og dem, der overgiver sig, hvilket er forbudt af de nuværende regler for krigsførelse.

Hvad forhindrer arbejdet i at afbryde alle parter i konflikten, selv ejerne af sådanne våben? Kunstige intelligenselementer bruges allerede med succes i militært udstyr, missiler; robotter er tiltrukket af rekognoscering, men det sidste ord hviler stadig på mennesker. Autonome våben vil ikke adlyde befalingerne fra befalerne - det er derfor, de er autonome. Derfor er militærgeneraler fra forskellige lande skeptiske over for introduktionen af maskiner i personalets række.

Og endnu et åbent spørgsmål er international terrorisme. Autonom våbenteknologi kan falde i de forkerte hænder, og den kan til sidst blive hacket. For et år siden sagde den russiske præsident Vladimir Putin, at verdens hersker vil være den, der vil blive førende inden for udvikling af kunstig intelligens. I tilfælde af autonome våben bliver den, der får adgang til sådanne teknologier, verdens hersker. Og til dette har du faktisk kun brug for en computer og en dodger, der vil passere gennem sikkerhedssystemerne. Pentagon er forresten blevet hacket mere end én gang. Derfor kan ingen give garantier for, at autonome våben forbliver ukrænkelige.

Det er også uklart, hvem der er juridisk ansvarlig, hvis der begås en krigsforbrydelse som et resultat af det autonome våbensystems funktion.”Ingeniøren, programmøren, fabrikanten eller befalingen, der brugte våbenet? Hvis ansvar ikke kan defineres som krævet i international humanitær lov, kan implementering af sådanne systemer anerkendes som juridisk eller etisk berettiget?”Bemærker Den Internationale Røde Kors Komité.

Interessant nok foreslog forskere også et forbud mod kamprobotter. I juli i år underskrev mere end to tusind forskere, især skaberen af Tesla og SpaceX Elon Musk og medstifterne af DeepMind, et dokument om, at de ikke ville udvikle dødelige autonome våben. Google gjorde det samme. Teknologigiganten har opgivet arbejdet med Pentagons Maven-projekt. Og i 2017 har en række forskere allerede opfordret FN til at forbyde oprettelsen af dræberrobotter.

Forresten kom spørgsmålet om kunstig intelligens i krig op på dagsordenen for De Forenede Nationer i slutningen af 2013, men praktisk taget intet har ændret sig siden da. Først i år begyndte ekspertmøder i form af konventionen om umenneskelige våben. Det vil sige, det tog mere end fire år at komme til et mere eller mindre praktisk plan.

Hvorfor de ikke ønsker at forbyde autonome våben

Uanset hvor banalt det måtte lyde, er våbenkappet hovedårsagen til, at de ikke ønsker at forbyde dræberrobotter. Putin har ret: den, der først får autonome våben, vil dominere verden. Officielt udtrykkes denne grund.

Hovedargumentet for modstandere af forbuddet er umuligheden af at adskille civil kunstig intelligens fra militæret. Ligesom vil vi ikke forbyde køkkenknive, bare fordi terrorister kan bruge dem. Faktisk er det praktisk taget umuligt at adskille civil udvikling af kunstig intelligens fra militæret. Men nu taler vi om forbuddet mod dette våben, som vil være i stand til uafhængigt at bestemme og angribe mål. Dette kunne være Maven-projektet, som det amerikanske forsvarsministerium arbejder på i samarbejde med Booz Allen Hamilton (Google nægtede kontrakten).

Maven-udviklerne vil lære droner at analysere billeder, især fra satellitter og - potentielt - identificere mål for angreb. Pentagon begyndte at arbejde på projektet tilbage i april 2017 og håbede at få de første arbejdsalgoritmer inden udgangen af året. Men gennem nedbrydningen af Google-medarbejdere blev udviklingen forsinket. I juni i år kunne systemet ifølge Gizmodo skelne mellem elementære objekter - biler, mennesker, men det viste sig at være helt ubetydeligt i vanskelige situationer. Hvis forbuddet mod autonome våben alligevel vedtages på FN-niveau, skal projektet skrottes, mens Pentagon hævder, at deres udvikling kan redde liv, fordi det kan programmeres til at arbejde mere nøjagtigt og pålideligt sammenlignet med mennesker.

"Du er nødt til at forstå, at vi taler om teknologi, at den ikke har prøver, der ville fungere. Idéen med sådanne systemer er stadig meget overfladisk," bemærkede forud for mødet i Genève i det russiske udenrigsministerium. - Efter vores mening kan international ret, især den humanitære sektor, anvendes på autonome våben. De har ikke brug for modernisering eller tilpasning til systemer, der endnu ikke findes.”

Nå, og en mere reel, men ikke udtrykt, grund er penge. I dag anslås markedet for militær kunstig intelligens teknologier til mere end seks milliarder dollars. Men i 2025 vil tallet tredobles - til næsten 19 milliarder, ifølge analytikere fra det amerikanske firma MarketsandMarkets. For de største våbeneksportører er dette en god motivation til at blokere eventuelle begrænsninger for udviklingen af dræberrobotter.

Fremskridt kan ikke stoppes

Tilhængere af et forbud mod autonome våben bemærker, at teknologien udvikler sig meget hurtigt, og kunstig intelligens til sidst bliver et våben - et spørgsmål om tid. Der er logik i deres ord. Kunstig intelligens er en integreret del af den fjerde videnskabelige og teknologiske revolution, som fortsætter nu. Det skal huskes, at den tekniske udvikling på en eller anden måde er forbundet med militære operationer. Den tredje videnskabelige og teknologiske revolution varede indtil midten af 50'erne af det 20. århundrede, det vil sige, at dens højdepunkt faldt i perioden fra anden verdenskrig.

I 1949 vedtog Genève konventionen til beskyttelse af civile personer i krigstid. I efterkrigstiden supplerede de også IV Haag-konventionen fra 1907, som fastlagde reglerne for krigsførelse. Det vil sige, rædslerne under 2. verdenskrig blev katalysatoren for denne proces. Så menneskerettighedsforkæmpere ønsker ikke at vente på den tredje verdenskrig for at beskytte menneskeheden mod autonome våben. Det er grunden til, at det er nødvendigt nu at beslutte skæbnen for morderrobotter, insisterer de.

Ifølge eksperter fra Human Rights Watch strider brugen af kamprobotter mod Martens-erklæringen - indledningen til Haagerkonventionen fra 1899 om krigens love og told. Med andre ord overtræder dræberrobotter menneskehedens love og kravene til offentlig bevidsthed (positionen blev bekræftet i IV Haag-konventionen).

”Vi skal arbejde sammen for at indføre et forebyggende forbud mod sådanne våbensystemer, før de spredes rundt om i verden,” sagde Bonnie Doherty, seniorforsker i våbenafdelingen hos Human Rights Watch.

Det fungerede ikke at forbyde dræberrobotter denne gang. Forudsigeligt vil møderne i november også være frugtløse. Sandt nok er næsten alle lande enige - teknologien kan ikke lade strømme af tyngdekraften, og bekæmpelsesrobotter har brug for en sådan stopkran. Men det er stadig ikke klart, om menneskeheden vil have tid til at trække det, når behovet opstår.

Anbefalede: