BY OPENING UP THE BLACK BOX OF AI, WE CREATE FULL EXPLAINABILITY
AND TRANSPARENCY

WAT IS BLACK BOX A.I.?

Black Box AI slaat op elk artificiële-intelligentiesysteem waarvan de input en activiteiten niet zichtbaar zijn voor de gebruiker of andere geïnteresseerde partijen. Meer algemeen is een zwarte doos een ondoordringbaar systeem. 

Deep learning modellering gebeurt gewoonlijk via black box development: Het algoritme gebruikt miljoenen datapunten als input en maakt correlaties tussen specifieke datakenmerken om zo output te genereren. Het is een grotendeels zelfsturend proces en is over het algemeen moeilijk te interpreteren voor data scientists, programmeurs en gebruikers.

Soms is het lastig om de werking van de software die gebruikt wordt voor belangrijke activiteiten of processen binnen een organisatie, te zien of te begrijpen. In dat geval kunnen fouten onder de radar blijven tot op het moment dat ze problemen veroorzaken die zo groot zijn dat ze onderzocht moeten worden. Bovendien kan de veroorzaakte schade duur of zelfs onherstelbaar zijn.

“In taal bijvoorbeeld is een algoritme dat leert op basis van geschreven teksten een van de meest voor de hand liggende bronnen van afwijkingen. Het algoritme zal in zo’n geval bepaalde associaties tussen woorden die samen verschijnen, vaker oppikken. Het leert bijvoorbeeld dat ‘man staat tot computerprogrammeur zoals vrouw staat tot huisvrouw’. Wanneer je dit algoritme vraagt om het geschikte cv te vinden voor een job als programmeur, zal het meer geneigd zijn om mannelijke kandidaten te selecteren.”

AI-discriminatie kan bijvoorbeeld in algoritmes geïntroduceerd worden als een weergave van bewuste of onbewuste vooroordelen van de ontwikkelaars, maar die vooroordelen kunnen ook binnensluipen via onopgemerkte fouten. De resultaten van een afwijkend algoritme zullen in elk geval onregelmatig zijn, in die mate zelfs dat ze de mensen die getroffen worden kunnen beledigen. Een afwijkend algoritme kan veroorzaakt zijn door trainingdata als de details over de dataset niet gekend zijn. In één bepaalde situatie, meer bepaald bij de selectie van IT-professionals, werd de in een rekruteringstoepassing gebruikte AI gebaseerd op historische data. Omdat de meeste IT-medewerkers echter historisch mannen waren, vertoonde het algoritme een afwijking in het voordeel van mannelijke kandidaten.

Als een dergelijke situatie zich voordoet bij black box AI, kan ze zo lang aanhouden dat het de reputatie van de organisatie schaadt en dat er mogelijk zelfs gerechtelijke stappen worden ondernomen wegens discriminatie. Dezelfde problemen - met dezelfde effecten - zouden zich ook kunnen voordoen met discriminatie tegenover andere groepen. Om dergelijke schade te vermijden is het belangrijk dat AI-ontwikkelaars transparantie inbouwen in hun algoritmes en dat organisaties hun verantwoordelijkheid opnemen voor de effecten ervan.

“BLACK BOX” = HET IS ONMOGELIJK TE BEPALEN HOE HET ALGORITME TOT JOUW BESLISSING IS GEKOMEN.

AI WAAR JE OP KAN VERTROUWEN #NOBLACKBOX

Artificiële Intelligentie bestaat al meer dan 50 jaar en heeft recent enorme vooruitgang geboekt dankzij onderzoekers, bedrijven en instellingen. We hebben enorme mijlpalen en gigantische verandering gezien in computerlinguïstiek, natuurlijke taalverwerking (NLP), semantische modellering en uiteraard machine learning. De opgang van deep learning heeft de evolutie van AI versneld en in de komende 10 jaar verwachten we een nog grotere versnelling van wat je kan bereiken met AI. Wij hebben deze technieken gecombineerd en erin geïnvesteerd om een unieke aanpak te kunnen bieden waarmee we Natural Language Understanding kunnen gebruiken in het voordeel van bedrijven.

AI-transparantie is een van de kernwaarden van Nalantis. Wij staan voor AI waar je op kan vertrouwen. Door vertrouwen centraal te stellen kunnen we betere AI-kaders bouwen en vermijden we slechte prestaties of afwijkende algoritmes.

Door de implementatie van transparante en verklaarbare AI leren bedrijven en regeringen te begrijpen hoe hun data gebruikt worden en op welke manier beslissingen worden genomen. Dat is een hele uitdaging. Machine learning wordt immers steeds complexer en ook de populariteit van deeplearning neurale netwerken, die zich gedragen als een zwarte doos zonder enige uitleg over hoe de resultaten worden berekend, neemt toe.

Dankzij de NoBlackbox-aanpak van Nalantis (ConceptNet semantische modellering) kunnen ontwikkelaars API's gebruiken voor de semantische voorstelling van taal en ongestructureerde tekst en wordt elk aspect uitgelegd en transparant gemaakt.

NALANTIS OPENT DE ZWARTE DOOS VAN AI EN ZORGT ZO VOOR DUIDELIJKE TAAL EN TRANSPARANTIE

AAN WELKE KENMERKEN HECHTEN ANALYTISCHE LEIDINGGEVENDEN HET MEESTE WAARDE WANNEER ZE AI’S ONTWIKKELEN?

Hoe belangrijk zijn de volgende eigenschappen voor zakelijk succes bij de ontwikkeling van een AI-product?

5 = Enorm belangrijk
1 = Niet zo belangrijk

Bron: Building AI-Driven Enterprises in a Disrupted Environment — 2020 FICO & Corinium

IN TEGENSTELLING TOT BLACK BOX AI BIEDT DE NOBLACKBOX-AANPAK TRANSPARANTIE BINNEN HET DEEL VAN HET ARTIFICIËLE-INTELLIGENTIEPROCES WAARIN ALGORITMES DATA INTERPRETEREN.

Dat betekent dat er twee belangrijke zakelijke problemen worden opgelost:

  1. Verantwoordelijkheid - we weten hoe het systeem tot een geautomatiseerde beslissing komt en kunnen indien nodig de redenering natrekken.

  2. Controleerbaarheid - we kunnen de processen evalueren, ze testen en accurater bijschaven en toekomstige fouten of hiaten voorspellen en voorkomen.

De ethische problemen die ontstaan bij black box AI kunnen het voor de gebruiker lastig maken om de beslissingen van algoritmes te vertrouwen. Met het oog op de toekomst sporen experten ontwikkelaars aan om voor AI een heldere en transparante glassbox-aanpak te hanteren.

Source: Ditto