Blog

Chatbots die onze taken overnemen: een bot-pocalyps?

Door:  Claus Jepsen

Van I, Robot tot The Terminator, het is geen geheim dat Hollywood Artificial Intelligence (AI) als onze grote vijand ziet en dat het slechts een kwestie van tijd is voordat we geconfronteerd worden met criminele robots. Dus toen afgelopen zomer twee Facebook bots met elkaar gingen chatten in hun eigen taal en vervolgens Google’s AlphaGo ook nog eens de beste schaker ter wereld bleek te zijn, explodeerde het internet met voorspellingen voor onze ondergang.

Maar we kunnen nog even rustig ademhalen. Want ondanks de speculatie dat we nog maar een stap verwijderd waren van een malafide AI-crisis, denk ik als Chief Architect dat we nog een lange weg te gaan hebben, voordat we ons echt zorgen moeten gaan maken over een bot-pocalyps. Op dit moment presteren bots gewoon nog steeds precies zoals we dat zouden verwachten.

Waar we op dit moment staan met bots en AI

In principe zijn chatbots ‘gewoon’ een andere manier om met een applicatie te communiceren, te vergelijken met bijvoorbeeld een grafische gebruikersinterface. De bots kunnen op commando informatie uit meerdere bronnen ophalen en acties in werking zetten zoals het plaatsen van een bestelling of het aanmaken van een rapport. Aan de consumentenzijde kunnen bots als Siri en Alexa simpele verzoeken uitvoeren en zijn ze zelfs geprogrammeerd om op een grappige manier te reageren wanneer er specifieke vragen worden gesteld.

Deze acties zijn niet anders dan wat we nu al met software kunnen realiseren – het proces wordt bij de ontwikkeling van bots enkel verpakt in een natural language interface (NLI) of in een conversationele interface, waardoor het makkelijker is om informatie te vinden en taken uit te voeren. Dit maakt het echter ook makkelijker voor ons om verkeerde intenties te vermoeden wanneer een programma iets ongewoons doet. Maar dat is veelal onterecht.

Bots in context

Laten we eerst eens een stap terug doen en bots bekijken in de bredere context van menselijke uitvindingen. Elke uitvinding, hoe eenvoudig of complex ook, heeft één ding gemeen: het is een hulpmiddel om efficiëntie te bereiken door bestaande processen te optimaliseren. AI is niet anders. Met de huidige mogelijkheden kunnen we alleen applicaties bouwen die ofwel nabootsen wat we al weten, ofwel automatiseren wat we doen. Naarmate computers steeds krachtiger worden, kunnen we snellere en geavanceerdere algoritmen creëren waarmee we processen kunnen optimaliseren en steeds complexere taken kunnen uitvoeren. Toch lukt het nog steeds niet om een programma te maken die deze taken volledig automatiseert.

Op dit moment doet alle AI enkel aan patroonmatching – en we weten dat de hersenen de meest complexe patroonmatching “computer” zijn die bestaat. Data en machine learning zijn daarom van groot belang, omdat ze de sleutel vormen tot het creëren van zelflerende systemen. Zelflerende systemen en algoritmen werken wel maar binnen een zeer smal domein. Als je bijvoorbeeld een algoritme hebt om katten te leren herkennen, dan kan datzelfde algoritme niet zonder nieuwe kennis plotseling beslissen dat een van de foto’s niet een kat was, maar een hond, waarna het algoritme katten van honden kan onderscheiden.

De volgende stap in de ontwikkeling zou een algoritme zijn dat dit wel kan. AlphaGo – dat de beste schaker ter wereld is geworden -  komt hier langzaam bij in de buurt, echter het gaat hierbij wel nog steeds maar om één specifieke taak.

Beveiligingssystemen in werking stellen

Bij het overwegen van bots in de zakelijke omgeving, is een element om in gedachten te houden dat bots voor bedrijfsapplicaties (enterprise bots) worden gebouwd rondom zeer specifieke use cases. Vandaag de dag werken ze in een zeer nauwe context en zijn ze niet gebouwd om een data-gedreven persoonlijkheid te ontwikkelen, zoals de Microsoft bots Tay en Zo.

Natuurlijk kunnen chatbots verpakt worden met vrij krachtige onderliggende technologie zoals voorspellende analytics en machine learning. Als enterprise bots worden versterkt met deze technologieën, kunnen ze bijleren door automatisch hun woordenschat te verbeteren zodat ze nog meer verschillende commando’s kunnen begrijpen. Wanda, Unit4’s digitale assistent, kan bijvoorbeeld niet alleen vergaderingen plannen, vrije dagen aanvragen en reizen boeken – ze kan ook inzicht geven in de huidige status van een project, voorspellingen geven over de voltooiingstijd en nog veel meer. Ze kan ook leren van eerdere ervaringen dat woorden zoals ‘aanschaffen’, ‘aankopen’, ‘kopen’, ‘afnemen’, ‘verkrijgen’, allemaal hetzelfde betekenen en dus dezelfde actie vereisen. Ze is intelligent, maar niet autonoom van mensen.

Bots drijven vooralsnog op menselijke input en daarom moeten we voorzichtig zijn met het invoeren van onjuiste informatie in een dergelijk systeem. Als je in een willekeurig machine learning gedreven algoritme onjuiste gegevens invoert, krijg je foutief gedrag. Voor het uitrollen van data-gedreven bots/agents in de infrastructuur, moeten zakelijke leiders volledig inzicht krijgen in de implicaties van het loslaten ervan. Er moeten adequate beveiligingssystemen beschikbaar zijn, drempelvoorwaarden voor wanneer een algoritme een beslissing neemt en uitgebreide registratiesystemen die elke beslissing die algoritmen nemen traceerbaar en zichtbaar maken.

De meeste bedrijfsoplossingen worden al geleverd met standaard beveiligingen die geconstrueerd zijn om bijvoorbeeld te voorkomen dat menselijke gebruikers fraude plegen. Een voorbeeld van een beveiliging voor enterprise bots is een die voorkomt dat een bot laptops gaat bestellen die niet voldoen aan de normen of te duur zijn. Alle acties die bedrijfssoftware onderneemt, voldoen aan specifieke regels die ervoor zorgen dat alles wat een impact kan hebben op het bedrijf zeer specifieke goedkeuringsprocedures doorloopt. Voordat een AI-systeem wordt geïmplementeerd, moeten CIO’s eisen dat softwareleveranciers grondig kunnen uitleggen hoe de algoritmen werken en dat de leveranciers uitgebreide informatie kunnen verstrekken over hoe beslissingen worden genomen.

Waar moeten we voor uitkijken?

Niet alle zorgen rondom AI zijn ongegrond. Het feit dat Google’s AlphaGo slechts 24 uur nodig had voor het leren van de schaakregels en vervolgens de beste systemen ter wereld kan verslaan, zorgt logischerwijs voor opgetrokken wenkbrauwen. En aangezien de huidige algoritmes beslissingen baseren op data en patronen, is het niet geheel ondenkbaar dat een algoritme besluit dat alle mensen vijanden zijn, met desastreuze gevolgen. Echter we kunnen software dan uitschakelen en aanpassen, net zoals bij de ‘criminele’ Facebook bots.

Terugkijkend op Facebooks bots is het feit dat zij begonnen te communiceren in hun eigen taal veel minder onheilspellend dan het klinkt. De bots kregen geen enkele prikkel om in het Engels te communiceren en begonnen daarom korte termen te gebruiken die doen denken aan nullen en enen. Deze vonden zij namelijk veel efficiënter dan de Engelse taal. Zij vervulden hiermee enkelweg de richtlijn ‘efficiëntie’ waarmee ze geprogrammeerd waren.

Science fiction zoals SKYNET uit The Terminator, waarbij AI op intelligente wijze alle beveiligingssystemen uitschakelt vereist zelfbewustzijn, doelen, motieven en een drive – oftewel menselijke elementen. Naar mijn mening zijn we ondanks de wellicht onheilspellende nieuwsberichten nog erg ver weg van het nabootsen van deze eigenschappen.

De mogelijkheid van een criminele chatbot is nog minder waarschijnlijk in de bedrijfswereld waar bots met name routinetaken uitvoeren. We moeten echter wel nauwlettend blijven monitoren en beveiligingssystemen inschakelen om alle AI-systemen te beheren. Niet per se vanwege de ongerustheid voor malafide beslissingen van bots, maar wel vanwege het gebrek aan menselijk toezicht dat tot fouten kan leiden. Hoe voorzichtig je moet zijn bij het implementeren van enterprise chatbots in de organisatie hangt af van de sector waarin je je bevindt en de hoeveelheid schade die een chatbot kan veroorzaken als deze onjuiste informatie krijgt toegediend of wanneer het een onjuiste beslissing neemt. Net als bij elke technologie zetten we voortdurend extra veiligheidsmechanismen in en worden bots steeds veiliger naarmate de tijd vordert. In de tussentijd moeten CIO’s echter de voordelen en mogelijke risico’s van het gebruik van AI en chatbot technologieën afwegen, hoe klein deze risico’s ook mogen zijn.

Kortom; de angst voor malafide bots is op dit moment ongegrond, gezien het feit dat de mogelijkheden van machine learning momenteel nog lang niet in de buurt komen van echte AI. Voordat we dichterbij komen bij het begrijpen van het menselijk brein, komen we nog niet eens in de buurt van het bouwen van systemen die een algehele bedreiging vormen voor de mensheid. Dus zolang de topprestatie van bots het winnen van een schaakpartijtje blijft, kunnen we allemaal rustig blijven slapen.

Claus Jepsen

Claus Jepsen

Claus Jepsen is a technology expert who has been fascinated by the micro-computer revolution ever since he received a Tandy TRS model 1 at the age of 14. Since then, Claus has spent the last few decades developing and architecting software solutions, most recently at Unit4, where he leads our focus on enabling the post-modern enterprise. Claus is building cloud-based, super-scalable solutions and bringing innovative technologies such as AI, chatbots, and predictive analytics to ERP. He is a strong believer that having access to vast amounts of data allows us to construct better, non-intrusive and pervasive solutions to improve our experiences, relieve us from tedious chores, and allow us focus on what we as individuals really love doing.

Volg mij linkedin