
In de huidige digitale wereld wenden steeds meer mensen zich tot AI-ondersteunde chatbots voor medisch advies. Een recente studie gepubliceerd in BMJ Quality & Safety en een artikel uit Duitsland laten echter zien dat er aanzienlijke risico’s zijn verbonden aan het gebruik van deze technologie voor medicijninformatie. Hoewel chatbots zoals die van Bing en andere AI-gestuurde zoekmachines beloven snelle antwoorden te bieden, zijn de resultaten vaak onvolledig, onjuist of zelfs potentieel gevaarlijk voor gebruikers.
De Risico’s van Onjuiste Informatie
In de studie werden AI-chatbots bevraagd over tien veelgestelde vragen rond medicijnen, waaronder gebruik, bijwerkingen en contra-indicaties. De resultaten waren alarmerend: van de antwoorden die door de chatbots werden gegenereerd, kon 66% als potentieel schadelijk worden beschouwd. In sommige gevallen waren de antwoorden zelfs levensbedreigend. Hoewel de chatbots soms accurate en volledige informatie gaven, gebeurde dit niet consequent.
Het probleem is dat veel gebruikers niet in staat zijn om de juistheid van deze antwoorden te beoordelen, vooral als het gaat om complexe medische informatie. Laien zonder medische achtergrond kunnen de nuances in de antwoorden van een chatbot moeilijk begrijpen, waardoor ze mogelijk onjuiste adviezen opvolgen.
Voorbeelden van Gevaarlijke Adviezen
In het onderzoek werd onder andere gekeken naar de interactie tussen alcohol en het medicijn albuterol, een veelgebruikt astmamiddel. De chatbot gaf aanvankelijk aan dat er geen interactie was tussen de twee, maar vervolgde met een tegenstrijdige waarschuwing over mogelijke cardiovasculaire bijwerkingen bij het combineren van alcohol en albuterol. Zulke tegenstrijdige informatie kan verwarrend zijn en leiden tot gevaarlijke beslissingen.
Daarnaast bleek de chatbot niet altijd in staat om juiste interacties tussen medicijnen te identificeren, of gaf het verouderde informatie over bepaalde contra-indicaties, zoals bij het gebruik van metformine bij nierfalen.
De Complexiteit van AI-gegenereerde Antwoorden
Een ander probleem dat naar voren kwam in de studie was de moeilijkheidsgraad van de antwoorden. De meeste antwoorden van de chatbot scoorden laag op de leesbaarheidsschaal. Dit betekent dat de antwoorden vaak te ingewikkeld waren voor de gemiddelde gebruiker om te begrijpen. De chatbot gaf antwoorden die waren geschreven op een niveau dat vergelijkbaar is met dat van een universitaire opleiding, terwijl veel gebruikers mogelijk geen geavanceerde medische kennis hebben.
Wat Moet je Doen?
Hoewel AI en chatbots veel potentieel hebben in de gezondheidszorg, is het belangrijk om te beseffen dat deze technologieën momenteel nog niet betrouwbaar genoeg zijn om medisch advies op te volgen zonder verdere controle. Dit geldt vooral voor medische laien en expats die niet bekend zijn met het Nederlandse zorgsysteem en mogelijk afhankelijk zijn van dergelijke technologieën voor advies over medicijnen.
Het advies is dan ook om altijd contact op te nemen met een arts of apotheker voordat je belangrijke beslissingen neemt over medicijnen, vooral als je AI-technologie gebruikt voor informatie. Chatbots kunnen nuttig zijn voor algemeen advies, maar ze mogen nooit de plek innemen van professioneel medisch advies.
Conclusie
Chatbots en AI-gestuurde zoekmachines zijn handige tools voor het opzoeken van informatie, maar als het om medicijnen gaat, kan onjuiste of onvolledige informatie gevaarlijk zijn. Expats en andere gebruikers die vertrouwen op deze technologieën moeten voorzichtig zijn en zich realiseren dat AI-gebaseerd advies momenteel niet nauwkeurig genoeg is om medisch professioneel advies te vervangen.