ContentSproute

Waarom je ChatGPT en Gemini (nog) niet moet gebruiken als kieshulp thumbnail

Waarom je ChatGPT en Gemini (nog) niet moet gebruiken als kieshulp

De Tweede Kamerverkiezing is op komst, maar voor kieshulp moet je echt (nog) niet bij ChatGPT of Gemini zijn. Dit is waarom.

Lees verder na de advertentie.

Steun Android Planet

Je gebruikt een adblocker. Dat vinden we jammer, want advertenties hebben we nodig om onze artikelen gratis aan te bieden. Steun Android Planet door ons aan je whitelist toe te voegen. Alvast bedankt!

Gemini of ChatGPT als kieshulp: doe het niet

Weten welke partij je stem verdient kan behoorlijk lastig zijn. Zeker omdat het verschil tussen de partijen vaak bij complexe onderwerpen ligt waar je niet alle details over weet. Er gaat veel tijd zitten in alles precies uitzoeken en dan hebben we tegenwoordig al snel de neiging om AI erbij te pakken. Toch is dat niet verstandig.

1. Informatie wordt gehallucineerd

Hoewel chatbots steeds beter worden, blijven hallucinaties een groot probleem van generatieve kunstmatige intelligentie. AI-chatbots willen altijd een bevredigend antwoord op je vragen geven, zelfs als ze daarvoor dingen moeten verzinnen.

Vraag je bijvoorbeeld wat een partij over een specifiek onderwerp heeft gezegd en heeft die partij zich daar nooit over uitgesproken, dan kan ChatGPT toch iets hallucineren om jou van dienst te zijn.

Het grote probleem van huidige AI-chatbots is dat je nooit zeker weet of een reactie oprecht of gehallucineerd is. Daardoor klinkt iets dat verzonnen is, net zo stellig als een feit. 

ChatGPT studeren

2. Risico op verwarring

Kunstmatige intelligentie hoeft niet te hallucineren om je toch verkeerde informatie te geven. Zo is er een groot risico dat je verouderde informatie krijgt, omdat AI voornamelijk getraind is met oudere teksten.

Partijen kunnen hun standpunten in de loop van de tijd veranderen en je wil natuurlijk jouw stem geven aan de partij die op dit moment het dichts bij jouw normen en waarden ligt, en niet vijf jaar geleden.

Ook is er altijd een risico dat informatie door elkaar wordt gehaald. Zelfs NotebookLM van Google, dat alleen de informatie gebruikt die je de tool voedt, maakt fouten. Nieuwsuur testte NotebookLM om verkiezingsprogramma’s met elkaar te vergelijken, waarbij de tool VVD en PVV door elkaar haalde. 

Steun Android Planet

Je gebruikt een adblocker. Dat vinden we jammer, want advertenties hebben we nodig om onze artikelen gratis aan te bieden. Steun Android Planet door ons aan je whitelist toe te voegen. Alvast bedankt!

3. Feiten en meningen worden door elkaar gehaald

Als jij een vraag stelt, put een chatbot voor zijn antwoorden uit alle informatie die er beschikbaar is over dat onderwerp. Daarbij kan de chatbot moeilijk onderscheid maken tussen wat feitelijk en een mening is.

In de trainingsdata van ChatGPT, Gemini en andere AI-chatbots zijn veel berichten uit forums en sociale media, of columns uit kranten meegenomen. Als jij informatie opvraagt over een partij, of de verschillen tussen partijen uitgelegd wil hebben, dan weet je niet altijd of dat op feitelijke informatie is gebaseerd of op een mening.

AI voor je studie gebruiken

Dat je AI voor zulke belangrijke dingen nog niet compleet kunt vertrouwen, betekent niet dat de technologie onbruikbaar is. Zo leggen we graag uit hoe je AI op een juiste manier als studie-assistent inzet. Op zoek naar meer tips om met AI aan de slag te gaan? We vertellen je alles over de Gemini-app.

Steun Android Planet

Je gebruikt een adblocker. Dat vinden we jammer, want advertenties hebben we nodig om onze artikelen gratis aan te bieden. Steun Android Planet door ons aan je whitelist toe te voegen. Alvast bedankt!

Read More

Scroll to Top