Deze publicatie maakt gebruik van cookies

We gebruiken functionele en analytische cookies om onze website te verbeteren. Daarnaast plaatsen derde partijen tracking cookies om gepersonaliseerde advertenties op social media weer te geven. Door op accepteren te klikken gaat u akkoord met het plaatsen van deze cookies.

Afgelopen week ervoer ik dat zelf. Ik stelde een vraag, kreeg een fout antwoord, en hoe vaak ik het ook probeerde, het systeem bleef hardnekkig dezelfde fout herhalen. OpenAI en vergelijkbare bots gedragen zich als een moderne godheid: zij bepalen wat ‘juist’ is, zonder ruimte voor nuance.

Natuurlijk zijn zulke tools handig voor snelle rekensommen of vertalingen. Maar ze slaan door wanneer ze één antwoord als absolute waarheid opdringen. Het wachten is op de eerste doden door beslissingen gebaseerd op hun foutieve informatie. Techneuten achter deze systemen hebben geen monopolie op wijsheid, vaak snappen ze de realiteit niet eens.

Dus nee, dat bericht van OpenAI is niet zomaar onschuldig. Het is een waarschuwing: wij verliezen grip op wie onze informatie beheert.

Techneuten achter deze systemen hebben geen monopolie op wijsheid, vaak snappen ze de realiteit niet eens

Maar dit is precies het gevaar van ongecontroleerde technologische macht. Degene die aan de knop draait, bepaalt. Overheden en toezichthouders kunnen slechts schaapachtig toekijken als ze niet van tevoren eisen stellen aan wat bedrijven doen, of van plan zijn te doen.

Toegang tot informatie is niet meer vanzelfsprekend. Het tijdperk van ongebreidelde globalisering loopt ten einde. De wereld verdeelt zich in blokken: Azië, Amerika, Europa, en straks wellicht Afrika. Daar hoeven we niet moeilijk over te doen, het is simpelweg de realiteit.

Neem China. Om daar toegang te krijgen, past Microsoft haar browser aan met filters die zoekresultaten censureren. Alphabet (Google) weigert dat, waardoor hun diensten er slechts in een kale, beperkte versie werken. OpenAI’s keuze om Rusland, Iran en China buiten te sluiten, laat waarschijnlijk zien dat ze geen gedifferentieerde filters kunnen toepassen. Het gevolg? Willekeur.

Op het eerste gezicht lijkt het een onschuldig bericht: OpenAI sluit haar toegang tot Rusland, Iran en China. Vanuit de luie stoel denk je misschien: Waar bemoeien ze zich mee?

eddytorial

Auteur Eddy Schekman,
Cash Platform
OpenAI gaat in de fout

Maar dit is precies het gevaar van ongecontroleerde technologische macht. Degene die aan de knop draait, bepaalt. Overheden en toezichthouders kunnen slechts schaapachtig toekijken als ze niet van tevoren eisen stellen aan wat bedrijven doen, of van plan zijn te doen.

Toegang tot informatie is niet meer vanzelfsprekend. Het tijdperk van ongebreidelde globalisering loopt ten einde. De wereld verdeelt zich in blokken: Azië, Amerika, Europa, en straks wellicht Afrika. Daar hoeven we niet moeilijk over te doen, het is simpelweg de realiteit.

Neem China. Om daar toegang te krijgen, past Microsoft haar browser aan met filters die zoekresultaten censureren. Alphabet (Google) weigert dat, waardoor hun diensten er slechts in een kale, beperkte versie werken. OpenAI’s keuze om Rusland, Iran en China buiten te sluiten, laat waarschijnlijk zien dat ze geen gedifferentieerde filters kunnen toepassen. Het gevolg? Willekeur.

Auteur Eddy Schekman,
Cash Platform

Op het eerste gezicht lijkt het een onschuldig bericht: OpenAI sluit haar toegang tot Rusland, Iran en China. Vanuit de luie stoel denk je misschien: Waar bemoeien ze zich mee?

OpenAI gaat in de fout

Techneuten achter deze systemen hebben geen monopolie op wijsheid, vaak snappen ze de realiteit niet eens

Afgelopen week ervoer ik dat zelf. Ik stelde een vraag, kreeg een fout antwoord, en hoe vaak ik het ook probeerde, het systeem bleef hardnekkig dezelfde fout herhalen. OpenAI en vergelijkbare bots gedragen zich als een moderne godheid: zij bepalen wat ‘juist’ is, zonder ruimte voor nuance.

Natuurlijk zijn zulke tools handig voor snelle rekensommen of vertalingen. Maar ze slaan door wanneer ze één antwoord als absolute waarheid opdringen. Het wachten is op de eerste doden door beslissingen gebaseerd op hun foutieve informatie. Techneuten achter deze systemen hebben geen monopolie op wijsheid, vaak snappen ze de realiteit niet eens.

Dus nee, dat bericht van OpenAI is niet zomaar onschuldig. Het is een waarschuwing: wij verliezen grip op wie onze informatie beheert.

eddytorial