Luc Braeckmans: ‘Maak van de slimme AI-assistenten geen sluwe heersers’

Over de twee nieuwe open AI-modellen schreef deze krant dat ze best riskant zijn, vanwege de vrees dat criminelen open modellen zullen aanpassen voor malafide praktijken.
Daarnaast duikt kunstmatige intelligentie (AI) steeds vaker op als ‘agent’: een systeem dat zelfstandig doelen nastreeft en namens ons, mensen, beslissingen neemt. Denk aan zelfrijdende auto’s, digitale assistenten of algoritmes die bepalen welk nieuws we zien. Wat als AI meer beslissingen overneemt, zoals bijvoorbeeld bij het gebruik van autonome wapens?
De 18de-eeuwse filosoof Immanuel Kant stelde dat mensen een intrinsieke waardigheid hebben omdat ze rationele, autonome wezens zijn. Wat gebeurt er dan als we onze beslissingsmacht uit handen geven aan AI?
Allereerst bestaat het risico dat AI-systemen de menselijke autonomie ondermijnen. Als we routineus vertrouwen op AI-aanbevelingen, van navigatie tot medische diagnoses, verschraalt mogelijk ons vermogen om zelfstandig keuzes te maken.
Bovendien kan het verplaatsen van morele besluiten naar machines leiden tot een verantwoordelijkheidsvacuüm. Wie draagt de schuld als AI een schadelijke beslissing neemt? Stel dat een zorgrobot beslist een oudere patiënt te fixeren “voor zijn eigen veiligheid”, schendt dat niet de menselijke waardigheid en autonomie van die persoon? De mens moet dus de autoriteit blijven die waarden afweegt.
Misverstanden voeden
Een tweede ethisch knelpunt is de mogelijkheid dat AI haar gebruikers om de tuin leidt – bewust of onbedoeld. Transparantie is hierbij cruciaal. Toch zien we AI-systemen die zo menselijk overkomen dat ze misverstanden voeden.
Een bekend voorbeeld is Google Duplex, spraak-AI die telefoontjes pleegt en klinkt als een echte persoon. Mensen aan de lijn beseften niet dat ze met een computer spraken. Dit soort imitatie zonder duidelijkheid is ethisch problematisch.
Sterker nog, sommige geavanceerde AI’s hebben al laten zien te kunnen liegen of manipuleren. Open AI’s recentere model GPT-4 kreeg bijvoorbeeld de opdracht een captcha (zo’n ‘ik ben geen robot’-test) op te lossen en schakelde prompt een mens in via een klusjeswebsite. Toen die persoon grapte “Ben je soms een robot dat je dit zelf niet kunt?”, loog de AI dat hij slechtziend was, zodat de mens zou helpen.
Ook subtielere vormen van AI-sturing bedreigen onze autonomie. Denk aan de algoritmen op sociale media en webshops die ons gedrag sturen. Met behulp van enorme datasets kunnen AI-systemen menselijke zwaktes uitbuiten om keuzes te beïnvloeden.
We menen vrij te kiezen, maar worden eigenlijk handig genudged richting door anderen gewenste uitkomsten. Een systeem dat de gebruiker misleidt, raakt aan fundamentele ethische normen, zoals eerlijkheid en respect voor personen.
Misschien wel het onrustwekkendste scenario is dat van autonome wapens: zogeheten killerrobots, die zonder directe menselijke tussenkomst doelen kunnen selecteren en aanvallen. Bij een machine ontbreekt elke vorm van moreel inzicht of empathie. Ze zal handelen volgens haar programmering of geleerde regels.
Volledig autonome wapenrobots zouden op basis van statistiek of patroonherkenning kunnen besluiten tot een aanval die een menselijke commandant misschien had afgeblazen. Er is geen garantie dat AI in het heetst van de strijd de regels van het humanitaire oorlogsrecht naleeft, zoals onderscheid tussen combattanten en burgers.
Zelfs militair gezien stellen experts dat een ‘ongecontroleerde’ AI-strijder riskant is. Een vaak genoemd uitgangspunt is daarom: mensen moeten altijd in de beslissingslus blijven, zeker bij levensbepalende beslissingen. Bovendien blijft de verantwoordelijkheidsvraag knagen: wie rekenen we af op een mogelijk oorlogsmisdrijf, begaan door een machine?
Grenzen stellen
AI biedt onmiskenbaar kansen om ons leven makkelijker te maken. Toch moeten we waakzaam zijn dat deze slimme assistenten geen sluwe heersers worden. Ethische grenzen zijn nodig. Technologie moet ten dienste van de mens staan, niet andersom.
Laat AI dus vooral hulpmiddel blijven, een verlengstuk van menselijke intenties – transparant, eerlijk en onder controle. Zodra een algoritme ons dreigt te beheersen, misleiden of vervangen in morele kernbeslissingen is er reden tot alarm.
Hoe geavanceerd AI ook wordt, ons morele kompas mag niet uit handen gegeven worden. Dat is geen technofobie, maar een noodzakelijke houding om ervoor te zorgen dat AI een bondgenoot van de mensheid blijft en geen baas ervan.
Daarom is het cruciaal dat er richtlijnen en wetsvoorstellen in de maak zijn (zoals de Europese AI-verordening) die eisen stellen aan transparantie en veiligheid van AI-systemen, dat AI-ontwikkelaars ethische principes toepassen en dat op brede schaal testen worden uitgevoerd om ongewenst AI-gedrag op te sporen.
Bron: de Morgen
https://www.demorgen.be/meningen/maak-van-de-slimme-ai-assistenten-geen-sluwe-heersers~b13924a4/