Ben je geïnteresseerd in de wereld van wetenschap & technologie en wil je hier graag meer over lezen? Word dan lid van KIJK!
Het Amerikaanse ministerie van Defensie heeft zijn richtlijnen geüpdatet over het militaire gebruik van autonome wapensystemen. Het richt zich volgens eigen zeggen nu op “passende niveaus van menselijk oordeel”.
De U.S. Department of Defense (DoD) is al jaren druk bezig met het testen van autonome wapensystemen die soldaten kunnen ondersteunen. Denk aan onbemande heli’s en vaartuigen, drones, autonome Humvees en meer wapengeschut. Officieel heten die LAWS (lethal autonomous weapon systems), maar veel mensen noemen ze liever killer robots. Omdat dergelijke technologische innovaties strikte regels vereisen, heeft het Pentagon een bijgewerkte richtlijn opgesteld voor hoe het wil omgaan met autonome en door kunstmatige intelligentie geleide wapens.
Lees ook:
LAWS
Het idee achter autonome wapensystemen is dat ze, als ze eenmaal zijn uitontwikkeld, op basis van kunstmatige intelligentie doelwitten kunnen identificeren en uitschakelen zonder dat daar een menselijke beslisser aan te pas komt. Voorstanders zeggen dat de LAWS-technologie er bij gewapende conflicten voor gaat zorgen dat er minder slachtoffers zullen vallen, omdat robots niet zoveel fouten maken als soldaten. Tegenstanders vinden deze wapensystemen fundamenteel onethisch en vrezen onvoorziene doemscenario’s. LAWS vereisen hoe dan ook strakke richtlijn – daar is ook het Pentagon het mee eens.
De richtlijn – een update van tien jaar in de maak – houdt rekening met de grote technologische evolutie van het afgelopen decennium, en het Pentagon zegt dat de update als doel stelt om de “waarschijnlijkheid en gevolgen van storingen in autonome en semi-autonome wapensystemen die tot onbedoelde aanvallen kunnen leiden” te minimaliseren. Zo valt te lezen in de geüpdatete DoD Directive 3000.09 – Autonomy in Weapon Systems.
Algeheel verbod
Toch is de update voor velen niet genoeg. Veel mensen pleiten voor een algeheel verbod op alle autonome en op afstand bedienbare wapens, waaronder Nobelprijswinnaar Jody Williams. In een interview met KIJK zei ze eerder al dat machines in een gevechtssituatie onvoldoende onderscheid kunnen maken tussen burgers en soldaten.
Williams: “Daarnaast speelt deze vraag: wie is er verantwoordelijk als een killer robot burgers doodt of een dorp aanvalt? De programmeur, het bedrijf dat de robot bouwde, of de legercommandant? Niemand die het weet. Dat is een enorm probleem, want volgens het oorlogsrecht moet je voor dat soort misdaden kunnen worden berecht.”
De Verenigde Naties discussiëren al jaren over LAWS. Het niveau van menselijke interactie met de autonome wapens is het belangrijkste knelpunt. Een meerderheid van de VN-lidstaten wil daarom een internationaal wetgevend kader voor zulke autonome wapens. Maar van een gezamenlijk verdrag komt het waarschijnlijk niet, want veel grootmachten liggen dwars.
Bronnen: U.S. Department of Defense, Popular Mechanics, KIJK 4/2017
Beeld: Onfokus/Getty Images