AI-bots kunnen onjuiste informatie opleveren over personen, plaatsen en feiten. Zulke missers – ook wel ‘hallucinaties’ genoemd – zijn in de praktijk al meermaals voorgekomen. Soms zelfs met schadelijke gevolgen, zoals een Amerikaanse advocaat heeft ondervonden.
Zelf aan ‘due diligence’ doen
Individuele eindgebruikers van Deloitte’s AI-chatbot moeten dus zelf aan ‘due diligence’ doen voor wat zij van die kunstmatige intelligentie krijgen voor hun werktaken. Dit voorbehoud wordt door The Financial Times gemeld op basis van ingewijde bronnen. Werknemers moeten hoe dan ook behoedzaam omgaan met AI-tools.
Deloittes brede uitrol van de eigen genAI, die de naam PairD heeft, volgt op een eerdere proef. De interne AI-tool is in oktober gelanceerd in het Verenigd Koninkrijk. In tegenstelling tot veel inzet van genAI-mogelijkheden door diverse bedrijven, waaronder ook concurrenten van Deloitte, betreft het hier niet een samenwerking met een van de grote spelers op het gebied van genAI.
Zelfontwikkeld
De accounting- en consultancyfirma heeft niet aangeklopt bij ChatGPT-maker OpenAI, of bij Google of bij de juridisch gerichte AI-maker Harvey. PairD is een Deloitte-eigen ontwikkeling: gemaakt door het AI-instituut van het bedrijf. Deloitte stelt PairD compleet met personeelstraining voor gebruik van die AI-tool ter beschikking aan Scope, een Engels en Welshe goededoelenorganisatie voor gelijke rechten voor mensen met een beperking.
Dit artikel is oorspronkelijk gepubliceerd op AG Connect, zustertitel van CHRO/HR Praktijk.