Naar inhoud

Kunstmatige intelligentie maakt jouw geaardheid openbaar

Ergens in een stad in het midden van India woont Chirag. Chirag is een persoon die afwijkt van de rest. Dat denkt hij zelf tenminste. Hij heeft een ernstige ziekte volgens de sociale norm en volgens de wetgeving. Homoseksualiteit heet het. In Nederland zijn wij tolerant en liberaal als het gaat om homoseksualiteit, maar in India is dit voorlopig nog lang niet aan de orde. Sterker nog, sinds 2013 is de anti-homowet weer van kracht. Met als gevolg dat er ongeveer 1.500 mensen per jaar worden opgepakt, waarvan naar alle waarschijnlijkheid zo’n 200 kinderen.

Regelmatig wordt Chirag alleen al op basis van het vermoeden van homoseksualiteit in elkaar geslagen of bedreigd. Hij is zelfs al een paar keer een stad ontvlucht om een nieuw leven op te bouwen in een nieuwe stad. Het enige wat Chirag eigenlijk wil, is in vrede leven op een plek waar ruimte is voor respect en liefde. Hij weet echter ook dat het een kwestie van tijd is tot de overheid hem bestempelt als homoseksueel en overgaat tot arrestatie.

Moet je dan eens voorstellen dat je met kunstmatige intelligence daadwerkelijk kunt bepalen aan iemand zijn internetgedrag of diegene homoseksueel is. Lijkt onmogelijk toch? Niet meer dus!

Kunstmatige intelligentie, wat is het eigenlijk?

De grotere bedrijven en tientallen start-ups werken al met artifical intelligence. Met de daadwerkelijke integratie van kunstmatige intelligentie-oplossingen in advertising en customerservice komt er een einde aan de raadselachtige vraag over de betekenis van de toepassing van AI. Nu wordt concreet duidelijk tot welke, voor ons nu nog innovatieve en vooruitstrevende, implementaties kunstmatige intelligentie leidt.

De discussies en opvattingen over dit onderwerp zijn talrijk, maar in deze oproep beperk ik het tot de volgende maatstaf: alles wat een systeem zelflerend en daarmee slim maakt. Dat wil zeggen, een systeem dat uit zichzelf slimmer wordt en leert zonder handmatige menselijke input. Op dit moment wordt kunstmatige intelligentie voornamelijk gebruikt voor slimme klantsystemen, marketing, advertising en een beetje in de muziek- en kunstindustrie.

Privacy? Je geaardheid is zelfs al bekend

Als je een eenvoudig algoritme loslaat op bijvoorbeeld de social media, Google-resultaten en de zo vervelende geaccepteerde cookies, kun je met vrij toegankelijke en openbare algoritmes je geaardheid en geloof bepalen aan de hand van je klik- en uitingsgedag. Zonder dat jij die bijzonder persoonlijke gegevens verkondigt op het wereldwijde web.

Het is mogelijk om met een zekerheid van 85 tot 90 procent vast te stellen of iemand homo-, bi- of heteroseksueel is. Dat is misschien nog wel een grotere zekerheid dan dat een mens zelf kan. Aan de hand van je online koopgedrag, je bezochte websites en uiteraard je social media weten de gemiddelde algoritmes al heel snel wat je geaardheid is.

Hoewel de huidige gebruikers data blijven anonimiseren en hier geen menselijk toezicht bij komt, is het niet lastig om hier een menselijke stap tussen te plaatsen en concreet te bekijken welke eigenschappen bij wie horen.

Met de open sourcealgoritmes die al beschikbaar zijn, is het mogelijk om een specifiek persoon te analyseren. Hierbij kan dus informatie worden onttrokken over de identiteit, voorkeuren en hobby’s. Maar ook over normaal gesproken minder publiekelijke informatie, zoals seksuele geaardheid, geloof of politieke voorkeur.

Op dit moment zijn de grotere leveranciers van AI het er allemaal wel eens dat dit een bij voorbaat al onethische en onreglementaire benadering is van de techniek. Het is echter eerder een kwestie van tijd tot dit wel gebeurt met verkeerde beweegredenen.

Een humanitaire ramp ligt op de loer

Het is handig, ethiek buiten beschouwing gelaten, voor commerciële bedrijven om met een zekerheid van bijna 95 procent te kunnen zeggen wat je geslacht en interesses zijn of zouden kunnen zijn. Misschien dat we zelfs relatietherapie of zwangerschapsproducten aan je klikgedrag kunnen koppelen. De eerste schandalen zijn er inmiddels al wel, met 14-jarige meisjes die zelf nog niet eens wisten dat ze zwanger waren en maar wel advertenties over dit onderwerp kregen voorgeschoteld.

De zekerheid over bijvoorbeeld de geaardheid van een persoon heeft een direct gevolg. Als deze techniek wordt ingezet door landen of organisaties met een minder liberaal gedachtegoed, zijn de gevolgen niet te overzien. Wanneer deze ‘slimme’ techniek wordt ingezet door de overheid van een land waar celstraffen of zelfs doodstraffen staan op homoseksualiteit, kunnen wij helaas wel invullen wat er gaat gebeuren. Om nog maar niet te spreken over de huidige spanningen binnen religies en opstanden in het Midden-Oosten en Azië en de kracht van AI om onderscheid te maken op basis van geloof.

Het resultaat is een nieuwe humanitaire ramp, veroorzaakt door techniek en met als grote gevolg dat mensen op de vlucht moeten slaan. En Chirag? Hij is inmiddels bezig met een plan om zijn zo geliefde India te verlaten uit angst voor geweld, intimidatie en lange gevangenisstraffen. Hij is hiermee één van de naar schatting minimaal drie miljoen homoseksuele mannen in India.

Zijn er oplossingen?

Laat ik vooropstellen dat de techniek op zichzelf met de juiste intenties en het juiste gebruik echt een fantastisch middel is. Er zijn veel positieve voorbeelden te noemen. Denk bijvoorbeeld aan de wijze waarop kunstmatige intelligentie borstkanker opspoort, misdadigers traceert of bijdraagt aan wetenschappelijke oplossingen. Ik ben dan ook echt een voorstander van een juist gebruik van de techniek, maar roept tegelijkertijd op een bewustzijn over de keerzijde.

Natuurlijk kun je niet verwachten dat wij massaal onze smartphone en laptop uit het raam gooien en ons zoekgedrag zo gaan beïnvloeden. Waar ik je wel bewust van wil maken, is dat zeker de particulieren en consumenten van deze wereld kunnen eisen welke data bedrijven kunnen vinden en gebruiken. Een soort van eerste kleine stap met een online vind-mij-niet register om onszelf te beschermen en zelf te bepalen hoe en welke data er over jou beschikbaar zijn.

Tot die tijd dienen wij en alle organisaties die AI inzetten onze verantwoordelijkheid te nemen en ons gezamenlijk te richten op ethische verantwoorde keuzes. Daarmee pleiten wij voor gepaste terughoudendheid als het gaat om technieken met zoveel impact. Wij zijn inmiddels op een punt waar wij als gebruikers en leveranciers van de techniek het lot van vele levens kunnen bepalen. Wij moeten hier ethisch verantwoord en terughoudend mee omgaan. Zullen wij hier samen verstandig mee omgaan?

Dit artikel is gericht op het kweken van bewustzijn bij consumenten en de IT-Industrie over de potentiële impact van artificial intelligence, niet een afkeuring van de techniek of juist een aanmoediging tot slecht of onethisch gebruik van de techniek. Wil je meer informatie of contact hebben over dit onderwerp? Stuur dan een e-mail naar thomas@wearebranders.com.

Het verhaal van Chirag is helaas een waargebeurd verhaal. Alleen heeft hij in het dagelijkse leven een andere naam.

De auteur is co-founder van Branders, een team van digitale architecten en vooruitstrevende ontwikkelaars.

0
Logo CustomerTalk

Cookie-instellingen

CustomerTalk maakt gebruik van cookies voor een optimale gebruikerservaring.

Graag vragen wij je toestemming voor het plaatsen van deze cookies.

Accepteren Meer informatie