'Killer Robot' Lab står over for boykot fra eksperter på kunstig intelligens

  • Phillip Hopkins
  • 0
  • 2450
  • 455

Det kunstige intelligens (AI) samfund har en klar besked til forskere i Sydkorea: Lav ikke killerrobotter.

Næsten 60 AI- og roboteksperter fra næsten 30 lande har underskrevet et åbent brev, der opfordrer til en boykot mod KAIST, et offentligt universitet i Daejeon, Sydkorea, der er rapporteret at "udvikle [ing] kunstig intelligenssteknologi, der skal anvendes til militær våben, der deltager i den globale konkurrence om at udvikle autonome våben, ”sagde det åbne brev.

Med andre ord undersøger KAIST muligvis, hvordan man fremstiller militære AI-våben. [5 grunde til at frygte robotter]

Ifølge det åbne brev blev AI-eksperter verden over bekymrede, da de fik at vide, at KAIST - i samarbejde med Hanwha Systems, Sydkoreas førende våbenfirma - åbnede en ny facilitet den 20. februar, kaldet Research Center for the Convergence of National Defense and Kunstig intelligens.

I betragtning af at De Forenede Nationer (U.N.) allerede diskuterer, hvordan man kan beskytte det internationale samfund mod mordere AI-robotter, "er det beklageligt, at en prestigefyldt institution som KAIST ser ud for at fremskynde våbenløbet for at udvikle sådanne våben," skrev forskerne i brevet.

For stærkt at afskrække KAISTs nye mission, boykotter forskerne universitetet, indtil dets præsident gør klart, at centret ikke vil udvikle "autonome våben, der mangler meningsfuld menneskelig kontrol," siger brevforfatterne.

Denne boykot vil være altomfattende. "Vi vil for eksempel ikke besøge KAIST, være vært for besøgende fra KAIST eller bidrage til noget forskningsprojekt, der involverer KAIST," sagde forskerne.

Hvis KAIST fortsætter med at forfølge udviklingen af ​​autonome våben, kan det føre til en tredje revolution i krigføring, sagde forskerne. Disse våben "har potentialet til at være terrorvåben", og deres udvikling kunne tilskynde til, at krig kæmpes hurtigere og i større skala, sagde de.

Despotter og terrorister, der erhverver disse våben, kunne bruge dem mod uskyldige befolkninger og fjerne alle etiske begrænsninger, som regelmæssige krigere måtte komme over for, tilføjede forskerne.

Et sådant forbud mod dødbringende teknologier er ikke nyt. For eksempel forbyder Genève-konventionerne væbnede styrker at bruge blændende laservåben direkte mod mennesker, tidligere rapporteret. Derudover er nervemidler som sarin og VX forbudt ved kemiske våbenkonvention, hvor mere end 190 nationer deltager.

Imidlertid er ikke alle lande enige om at tæppe beskyttelser som disse. Hanwha, virksomheden, der samarbejder med KAIST, hjælper med at producere klaseammunition. Sådanne ammunition er forbudt i henhold til U.N.-konventionen om klasevåben, og mere end 100 nationer (skønt ikke Sydkorea) har underskrevet konventionen mod dem, sagde forskerne.

Hanwha har haft konsekvenser for sine handlinger; på baggrund af etiske grunde investerer Norges offentligt fordelte $ 380 milliarder pensionsfond ikke i Hanhwa's bestand, siger forskerne.

I stedet for at arbejde på autonome drabsteknologier, burde KAIST arbejde med AI-enheder, der forbedrer, ikke skader menneskeliv, sagde forskerne.

I mellemtiden har andre forskere i årevis advaret mod mordere AI-robotter, herunder Elon Musk og afdøde Stephen Hawking.

Original artikel på .




Endnu ingen kommentarer

De mest interessante artikler om hemmeligheder og opdagelser. Masser af nyttige oplysninger om alt
Artikler om videnskab, rum, teknologi, sundhed, miljø, kultur og historie. Forklare tusinder af emner, så du ved, hvordan alt fungerer