Kan kunstmatige intelligentie de wetshandhaving verbeteren? <> Of wordt het Stasi 2.0 ?


Dinsdag 17 April zat ik te kijken naar het programma van TV 5 Monde over de geavanceerde politie opsporing methodes waarbij soms preventief 10 – 20% van de tijd de computer al kan voorspellen waar er mogelijk criminele activiteiten gaan plaatsvinden, Dit alles gebaseerd op een database van 10 jaar die ook dagelijks up-to-date wordt gehouden. We gingen dus even zoeken via startpage naar FedPol zoals het programma genoemd wordt.

Bron Artikel: Can Artificial Intelligence Improve Law Enforcement?


Waar een spionage staat leidt toe … De Oost-Duitse ervaring. Vandaag is de technologie 10.000x “beter”. Van de Sovjet-Cheka tot de KGB tot de Oost-Duitse Stasi. De geschiedenis van een totale bewakingsstaat vanuit zijn Sovjet wortels. De Stasi had meer mensen in dienst dan de Gestapo. Op zijn hoogtepunt was er een Stasi-medewerker voor elke 180 Oost-Duitse burgers. Wat deden ze? Ze tikken op de telefoon van iedereen, lezen de e-mail van iedereen en zetten fusiecentra op in het hele land. Net zoals de NSA van vandaag.


Kan kunstmatige intelligentie de wetshandhaving verbeteren?

Er zijn een groot aantal vragen rond het onderwerp van machine learning en kunstmatige intelligentie (AI), van hoe je ethiek vaststelt en veilig innovatie nastreeft om de monumentale taak van het programmeren van empathie in apparaten zoals chatbots aan te pakken. Onder de collectieve onzekerheid ligt echter een simpele waarheid: AI is een krachtige technologie die mensen helpt efficiënter te worden en veel vooruitstrevende industrieën zijn al aan boord.

Een van deze bedrijfstakken is wetshandhaving. En nee, ondanks wat science fiction-films je willen laten geloven, is de Robocop nog niet op straat. Rechts handhaving instanties in het hele land die AI al gebruiken op geavanceerde manieren om criminaliteit te stoppen, verdachten te vinden, functionarissen te beschermen en meer. Laten we eens kijken hoe deze praktijk er vandaag uitziet en wat deze tot morgen kan leiden.

Vijf toepassingen voor AI in de rechtshandhaving van vandaag

Een recente Stanford University-studie, Artificial Intelligence and Life in 2030, vond acht domeinen die het meest geschikt zijn voor groei van AI in 2030: service robots, gezondheidszorg, transpiratie gemeenschappen met weinig middelen, onderwijs, werk en werkplek, entertainment en openbare veiligheid en beveiliging . Het is de laatste in die lijst waar we ons vandaag op focussen. Zoals opgemerkt in het rapport, worden wet handhaving instanties overal in het land steeds meer geïnteresseerd in het implementeren van AI-oplossingen, en zelfs overheidsinstanties zoals het Defense Advanced Research Projects Agency (DARPA) en de Intelligence Advanced Research Projects Activity (IARPA) werken aan onderzoek en ontwikkeling op gebieden variërend van nationale veiligheid tot plaatselijke politiediensten.

Kortom, dit gebeurt.

Robot binnen brengen om bommen te detecteren en te deactiveren.
Het gebruik van robotica is niet noodzakelijkerwijs een nieuwe truc voor rechtshandhaving. In feite heeft CNN Money gemeld dat $ 55,2 miljoen aan militaire robots zijn verkocht aan de politie sinds 2010 via een overheidsprogramma. Dankzij AI worden hun functies echter steeds geavanceerder. Overweeg dit: vaak sturen ze robots in om explosieve apparaten te onderzoeken om te bepalen of een bedreiging een geldige bedreiging is. Al snel verwachten experts echter dat politie-robots bommen kunnen deactiveren en helpen bij het opsporen ervan. Deze mogelijkheid lijkt meer dan plausibel als je bedenkt dat de politie van Dallas onlangs geschiedenis heeft geschreven toen ze een robot gebruikten om een actieve schieter te doden.

Drones gebruiken voor bewaking.
Drones worden gebruikt door het leger en veel wet handhaving instanties voor een verscheidenheid aan taken. De drone wordt bijvoorbeeld door autoriteiten in India gebruikt om menigten te beheersen door pepperspray te spuiten en paintballs te schieten. Er is meer: er zijn ook luidsprekers, zodat de rechtshandhaving in real-time kan communiceren met menigten of individuele verdachten. En natuurlijk heeft het bewakingsmogelijkheden, waaronder meerdere camera’s en een microfoon. Hoe fascinerend dat ook is, het is de moeite waard om op te merken dat bewaking drones aangedreven door AI binnenkort misdaden kunnen voorspellen voordat ze zich voordoen met hulpmiddelen zoals gezicht herkenning software (om diegenen te identificeren met strafregisters) en machine learning-software (om te bepalen wanneer een verdachte activiteit te melden)

Sociale media scannen op illegale activiteiten.
Het gebruik van smartphones is de afgelopen jaren enorm gestegen en dat in combinatie met sociale media heeft een revolutie teweeggebracht in de communicatie tussen consumenten en bedrijven. Je kunt een strategie voor sociale verkoop toepassen op bijna alles, zelfs drugs, zo blijkt. Sites zoals Instagram en zelfs Tinder zijn op grote schaal gebruikt voor het venten van parafernalia, maar zoals The Daily Dot onlangs meldde, kraken politieagenten zoals die in de staat New York met KI. Het kantoor van de procureur-generaal van New York was zelfs co-auteur van onderzoek naar een nieuwe pre-investigatieve methode, waarbij een verfijnd algoritme van classificatoren werd ontwikkeld dat hashtags en recente activiteit doorzoekt die wijzen op drugshandel. Zodra een doelwit is geïdentificeerd, geeft de technologie die informatie door aan het fysieke handhavingsteam om te onderzoeken.

Sociale media scannen op personen die mogelijk geradicaliseerd zijn.
In het bovengenoemde rapport van Stanford wordt erop gewezen dat sommige wet handhaving instanties AI gebruiken om gesprekken op sociale platforms te volgen en analyseren “om te voorkomen dat risicogroepen door ISIS of andere gewelddadige groepen worden geradicaliseerd.” Een van deze monitoring instrumenten is iAWACS of internet AWACS genoemd . Volgens de Washington Post is dat een verwijzing naar het acroniem dat door het leger wordt gebruikt om hun intelligentie en commandostations in de lucht te beschrijven. Het doel van iAWACS is om gebeurtenissen te voorkomen door online activiteit te controleren die indicatief is voor actieve schutter-situaties of scenario’s met een hoog risico voor extremisten.

Interview ‘bots’ “verkopen” leugens om verdachten te detecteren.
Onderzoekers in Nederland hebben een door de AI aangedreven chatbot-interviewer ontwikkeld, Brad genaamd, ontworpen om misleiding te detecteren via fysiologische aanwijzingen en algoritmen door het leren van machines. Hoewel Brad nog een lange weg te gaan heeft voordat hij mainstream wordt, hebben de implicaties van de technologie als eerste screening tool de potentie om de interviews van wet handhaving instanties efficiënter te maken en zelfs de beveiliging te verbeteren op risicovolle gebieden zoals luchthavens of sportevenementen.

Hoe ver is te ver?

Er is zeker een belofte in Kunstmatige Intelligentie – toepassingen voor wetshandhaving, vooral gezien het hyper charged klimaat waar de officieren van vandaag mee te maken hebben. Met die bemoedigende belofte komen echter tal van risico’s en verantwoordelijkheden. Zal het gebruik van KI door de rechtshandhaving ons veiliger maken, of overschrijden we een grens?

Surveillance- en misdaadpreventie-initiatieven zowel on- als offline zijn gebieden die rijp zijn voor de interventie van KI, maar de mogelijkheid om de privacy van privé-burgers binnen te vallen, individuen ten onrechte te richten op “verdacht” gedrag of op andere wijze misbruik te maken van de kracht van AI – zijn echte zorgen . Om deze aan te pakken, moet doorstroming plaatsvinden op een manier die consistent is met de onderliggende doelen van deze AI-toepassingen: de veiligheid, rechten en levens van zowel het publiek als de functionarissen die beëdigd zijn om hen te beschermen beschermen.

Tot zover het artikel dat we vonden over dit onderwerp. In meerdere landen lopen dit soort projecten. In Italie is dat het programma KeyCrime. In China gaan de berichten al dat de burgers een sociaal paspoort krijgen. Wie de richtlijnen overschrijden kunnen bepaalde rechten ontnomen worden. Dit kan mogelijk zover gaan dat een persoon totaal verstoten kan worden uit de samenleving zonder deze op te sluiten. We leven immers steeds meer in een openlucht gevangenis waar we elke minuut van de dag onder bewaking staan dankzij onze smartphone en de bewakingscamera’s met gezicht herkenning software.


In het TV programma werd nog een ander ongewenst detail prijsgegeven. Computers zouden neutraal moeten reageren op situaties en gevaren maar als de agent of ambtenaar die de gegevens in de computer invoert een racist is dan reageert ook de computer racistisch.

Moeten we blij zijn dat criminelen een grotere pakkans hebben of zijn we in de toekomst allemaal criminelen? We rijden immers allemaal wel eens te hard, zijn een gevaar met onze leefstijl voor de verzekeringsmaatschappij, werken wel eens zwart, leven samen en staan ingeschreven op verschillende adressen, etc, etc. Hoelang duurt het nog voordat jouw geheim je geld gaat kosten als nog enigszins normaal levende burger.

In Engeland werden onlangs al verschillende activisten aan de grens tegen gehouden die bij een demonstratie een spreekbeurt wilden verzorgen. Ze werden geweigerd het land te betreden, opgespoord door kunstmatige intelligentie gekoppeld aan hun lokatie gegevens van de mobiele telefoon. Je mag die dan wellicht uit hebben staan, de lokatie gegevens maar je wordt toch gevolgd !!