Leren van een chatbot?

Chatbots lijken overal aanwezig te zijn en we gebruiken inmiddels ze massaal, bewust of onbewust. Ik vraag me af hoe de makers en producenten van die chatbots zelf kijken naar de ontwikkelingen en het potentieel van (chat)bots, maar ook hoe ze bijvoorbeeld omgaan met data van hun gebruikers. Voor mijn missie ga ik daarom met verschillende chatbotproducenten in gesprek. Na in een vorig item gesproken te hebben over vooral de ethische kant van chatbots, spreek ik nu met Remy Reurling, mede-oprichter van Helpr, producent van educatieve chatbots. Hem vraag ik hoe je nou precies kan leren van een chatbot,  hoe succesvol dit is en hoe het eigenlijk zit met de privacy van de gebruiker.

Leren van een chatbot

Studenten helpen met chatbots

Helpr zet chatbots op een compleet andere manier in dan bijvoorbeeld een bedrijf waar een chatbot vragen beantwoordt over waar je een pakketje kunt vinden. Helpr ontwerpt educatieve chatbots die als doel hebben  leerlingen te coachen en te begeleiden bij het leren. Met een achtergrond in studiebegeleiding kreeg Reurling samen met zijn compagnons een idee over hoe ze leerlingen op grotere schaal konden helpen: “Wat wij merkten was dat de kracht van een coach, van een gesprek, een hele goede basis biedt voor verder onderwijs”, legt Reurling uit. Vanuit die gedachte is het bedrijf uitgekomen bij chatbots. “Chatbots zijn schaalbaar en via een chatgesprek kun je gepersonaliseerde hulp aanbieden. In plaats van dat je met een coach aan het kletsen bent, ben je eigenlijk met een avatar, met een soort digitale mij als een coach, aan het praten”, aldus Reurling. “We hebben er geen operators achter zitten die het gesprek overnemen van de chatbot als er iets fout dreigt te gaan.”

Een ander ontwerp

Dat is opvallend, want de bekendste bots werken juist wél met een vangnet achter de bots. Volgens Reurling heeft het verschil te maken met het idee dat bij het ondersteunen van leren niet belangrijk is dat je een antwoord geeft aan de gebruiker, maar juist een weg biedt naar het antwoord toe, dat de gebruiker dan zelf kan vinden. “Wij hebben het zo hebben ingestoken dat die bot de leiding neemt, als een coach. Als ik jou zou coachen op dit moment zou ik jou een vraag stellen. Jij geeft mij antwoord en ik kan daar weer prikkelende vervolgvragen op stellen.”

Doorgaans hebben bots een grote, diepe funnel (een soort denkbeeldige trechter). Als gebruiker kan je elke vraag stellen aan de bot, waarna de kwestie steeds verder wordt afgebakend door de bot voordat je bij het juiste resultaat komt. “Bij ons heb je meer een leerlijn, zoals je bij veel e-learnings ook zou hebben. En daarin kan je variëren”, vertelt Reurling. De antwoorden die de chatbot ontvangt, vallen binnen een bepaalde categorie. Anders dan bij klantgestuurde chatbots van veel grote bedrijven is hier geen gigantische beslisboom nodig. De funnel van Helpr is meer contextueel bepaald, waardoor je op elke vraag van de chatbot als gebruiker heel breed kan antwoorden en dat daar vervolgens weer hele specifieke vervolgvragen op kunnen worden gesteld door die chatbot.

Binnen de lijntjes kleuren

Bots als die van Helpr kunnen volgens Reurling voor een brede doelgroep ingezet worden, zoals e-learnings binnen bedrijven en op middelbare scholen voor begeleiding van studenten. In beide situaties is wel sprake van veel gebruikersdata die aan de bot gevoerd wordt. Hoe wordt omgegaan met al die data en hoe wordt rekening gehouden met bijvoorbeeld de privacy van de gebruiker?

Volgens Reurling wordt  privacygevoelige informatie beschermd. Doordat de bots van Helpr veelal als add-on gebruikt worden, dus als toevoeging bij andere platformen, worden de gegevens die al op de andere platformen bekend zijn gekoppeld aan een learning-ID. Reurling: “Dat ID is voor ons dan niet in te zien als een bepaalde soort gebruiker. We weten dus alleen dat je gebruikers hebt en die geven allemaal verschillende antwoorden.”

Er zijn wel klanten die vragen of personen gekoppeld kunnen worden aan de learning-ID’s, zodat klanten weten welke persoon hoe ver is gekomen met bijvoorbeeld een verplichte training. Reurling: “In dat geval kan je die ID’s wel koppelen, maar dat is in samenspraak met de klant die wij dan hebben. Wij kunnen nooit zelfstandig gegevens van gebruikers inzien. We kunnen alleen onze eigen gegevens inzien en die kunnen we opsturen naar de klant, zodat de klant die kan koppelen.”

Doordat de gebruikersaccounts en learning-ID’s bij verschillende bedrijven liggen, blijven de gegevens van gebruikers anoniem en niet inzichtelijk voor Helpr zelf. Op deze manier zegt het bedrijf de Nederlandse privacywetgeving na te leven, ook al gaat er op die manier ook informatie verloren die van pas zou kunnen komen bij het doorontwikkelen van de bot.

Bulkgegevens worden echter wel opgeslagen. Hierbij gaat het om gegevens die de algemene progressie van gebruikers bijhouden, waardoor bijvoorbeeld inzichtelijk wordt gemaakt of gebruikers op een bepaald punt in de training vastlopen. “Daar kunnen we een fout hebben gemaakt of dat de vraag te moeilijk is en dat niemand die goed heeft, omdat de vraag verkeerd is gesteld of iets dergelijks.” Klanten kunnen op deze manier in algemene zin zeggen dat Helpr over alle gebruikers kan zien dat er progressie is gemaakt en of mensen daadwerkelijk iets hebben geleerd.

Leren van chatbots

Weerstand

Reurling ziet nog veel meer mogelijkheden voor chatbots die een gesprek aangaan. Zo werd Woebot, een chatbot die helpt bij depressieve klachten, een aantal jaren geleden geïntroduceerd. Reurling legt uit: “Woebot is er eigenlijk alleen om te luisteren naar je, dus je gaat gewoon chatten. Die bot die herkent daar een aantal woorden in en die probeert dan met je mee te praten.” Het Amerikaanse bureau CI Insights dat de bot in 2021 tot één van de meest innovatieve digitale gezondheidsstart-ups van dat jaar. Toch zetten verschillende onderzoeken ook kanttekeningen bij dit optimisme. Zo stelt dit onderzoek aan de Universiteit van Oxford naar de effectiviteit en mogelijke schade van chatbot-hulplijnen zoals Woebot dat er naast de mogelijkheden en groeiende vraag ook ethische vragen spelen over de wenselijkheid, betrouwbaarheid en veiligheid.

Het concept klinkt misschien ook wel wat vreemd in de oren, wat mogelijk deels te maken heeft met onze perceptie van chatbots. Reurling stelt dat ook er nog weerstand is tegen chatbots. “Eigenlijk zitten we hier te werken met een technologie die eerst echt gigantisch heeft gefaald. De eerste indruk van veel Nederlanders is dat chatbots die dingen zijn die niet snappen wat je zegt.’

Tot slot

Na het gesprek met van Remy Reurling mijn het eerdere item met Fadoa Schurer krijg ik het gevoel dat wij de Nederlandse bots kunnen gebruiken. De Nederlandse producenten die ik gesproken heb lijken zich zeer bewust van de AVG/GDPR wetgeving en geven zelf aan deze secure uit te voeren. Dit is een belangrijke basisvoorwaarde om misbruik van data te voorkomen. Wel zie ik hier mogelijkheden voor en het belang van verder onderzoek naar de wenselijkheid, effectiviteit en de daadwerkelijke leeropbrengst van dergelijke chatbots.  En ten slotte heb ik ook wel het vermoeden dat we uit deze gesprekken nog niet echt een goed beeld krijgen van de mogelijk onwenselijke inzet van bots. Ik heb nog interview staan met chatbot expert Cas Kaandorp die verschillende bedrijven strategisch adviseert op dit gebied. Hopelijk gaat hij ons hier meer inzicht in geven.

Heb je iets van deze missie gemist? Kijk snel hieronder alle onderzoeken rondom Missie 4: Online Bots terug!

De producties voor deze missie worden ondersteund door redacteur Luuc ten Velde

Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x