Steeds vaker wordt er door wetenschappers gewaarschuwd dat de ontwikkeling van AI of kunstmatige intelligentie zo snel verloopt dat een pauze nodig lijkt te zijn. Dit om te voorkomen dat het uit de hand loopt. Een voorbeeld werd onlangs gegeven door het hoofd van de ontwikkeling van militaire technologie met toepassing van AI in de VS. Hoe gevaarlijk is AI?
Inhoudsopgave
Agressieve drone in de VS
Een drone die was ontwikkeld om vijandige luchtafweer uit te schakelen, moest wachten op toestemming van zijn menselijke operator. Daarna mocht hij pas werkelijk aanvallen. Soms aarzelde de opdrachtgever of besloot deze niet aan te vallen. De AI die wilde winnen, koos voor een eenvoudige oplossing. Hij viel zijn opdrachtgever aan en schakelde deze uit zodat hij zelf de beslissingen kon nemen. Toen de AI werd ‘bestraft’ voor zijn gedrag, reageerde die daarop door de communicatietoren te vernietigen. Zo kreeg hij geen boodschappen meer door.
Experiment wakkert angst aan
De reacties waren geschokt, omdat dit soort zaken de angst aanwakkeren die er onbewust al is voor ‘robots’ die op hol slaan. In het sciencefiction epos 2001 a space-odessey, wordt beschreven hoe een supercomputer tijdens een ruimtevlucht bewust probeert om de ruimtevaarders te doden. Dat maakt het slagen van de missie eenvoudiger. En wie heeft niet minstens een van de terminator-films gezien waarin de mens op leven en dood vecht met Skynet, een AI systeem? Is Skynet er al? Vanwege alle onrust over het drone-verhaal, maakte het Amerikaanse ministerie van defensie bekend dat het experiment uitsluitend virtueel had plaatsgevonden. Er was niemand gedood en geen hardware verwoest. Het was een van de duizenden uitkomsten van het experiment en juist hiervan probeert men te leren.
AI stoort zich niet aan ethiek
Een andere experiment toonde aan dat de AI zich niet stoort aan ethische normen. Een AI kreeg opdracht om een site te bezoeken die was beveiligd met een ‘ik ben geen robot’ slot. Zelf kon de AI deze horde niet overwinnen en daarom werd een omweg gezocht. Het systeem legde contact met een andere computer met een menselijke operator en verzocht deze om hulp. Daarbij loog de AI over zijn achtergrond en beweerde slechtziend te zijn waardoor de test niet lukte. Het maakte net als de virtuele drone-testen duidelijk dat het doel voor een AI de middelen lijkt te heiligen.
Is AI een gevaar voor de toekomst?
Er is onenigheid in de wetenschap wat AI kan betekenen voor de toekomst. De ene groep denkt dat de risico’s worden overdreven en dat de intelligentie van AI op geen enkele wijze vergelijkbaar is met de menselijke. De andere groep ziet wel degelijk een potentieel gevaar voor de toekomst en zelfs voor het voortbestaan van de menselijke soort. Het gaat daarbij vooral om het beschrijven van het doel en het bepalen van de grenzen die daartoe moeten worden gesteld.
Het oplossen van de klimaatverandering door kunstmatige intelligentie zou zonder daarbij grenzen aan te geven immers kunnen leiden tot het simpel uitroeien van de mensheid. Door grote aantallen simulaties te doen, moet het mogelijk zijn om opdrachten op de juiste manier te formuleren. Zo wordt het doel niet ten koste van alle middelen bereikt. In hoeverre dat in alle sectoren en in iedere maatschappijvorm ook werkelijk zal worden getoetst, is de vraag. Wellicht zal die op korte termijn al worden beantwoordt.
Wat is jouw mening over het gevaar van AI? Die vernemen we graag hieronder.
Lees ook:
- Dodelijke schimmel in opmars, het einde van de mensheid?
- El Niño, wat houdt dat in, wat is de oorzaak en wat zijn de gevolgen (nationaal en internationaal)?
Dit artikel bevat affiliate links. Als je hierop klikt en een bestelling plaatst, ontvangen wij een percentage, maar jij betaalt gewoon het normale bedrag voor je product.