Terug naar alle berichten

The New Yorker ontmaskert OpenAI. Dit betekent het voor elke organisatie die AI gebruikt.

Ian Zein
The New Yorker ontmaskert OpenAI. Dit betekent het voor elke organisatie die AI gebruikt.

The New Yorker publiceerde zojuist een indringend onderzoek naar Sam Altman en OpenAI. Gebaseerd op meer dan 100 interviews, nooit eerder openbaar gemaakte interne memo's en jarenlange documentatie. Het is het lezen meer dan waard. Maar een paar dingen vielen op.

Wat het onderzoek onthulde

Voordat Altman in 2023 werd ontslagen, verzamelde hoofdwetenschapper Ilya Sutskever 70 pagina's aan Slack-berichten en HR-documenten die een "consistent patroon van liegen" aantoonden. Hij zei tegen de raad van bestuur: "Ik denk niet dat Sam de persoon is die zijn vinger aan de knop moet hebben."

OpenAI beloofde zijn superalignment-team 20% van de rekenkracht voor veiligheidsonderzoek. Het werkelijke percentage? Tussen de 1 en 2%. Op de oudste hardware. Het team werd ontbonden zonder zijn missie te voltooien.

Het onderzoek na Altmans terugkeer? Er is nooit een schriftelijk rapport geproduceerd. Alleen mondelinge briefings aan twee bestuursleden die Altman zelf had helpen selecteren.

En nu bouwt OpenAI datacenters in de VAE die zeven keer groter zijn dan Central Park, gefinancierd door autocratieën, terwijl het lobbyt tegen elke betekenisvolle regulering.

Dit gaat niet alleen over één CEO

Dit gaat over wat er gebeurt als veiligheid afhangt van beloftes in plaats van structuur.

Elk handvest werd herschreven. Elk veiligheidsteam werd ontbonden. Elke toezegging werd heronderhandeld toen het geld groot genoeg werd. Anthropic verzwakte zijn responsible scaling policy. Google liet beperkingen vallen om militaire contracten binnen te halen. Het patroon is sectorbreed.

Waarom dit ertoe doet voor jouw organisatie

Als je vandaag AI gebruikt in je organisatie, vertrouw je op iemands belofte dat je data verantwoord wordt behandeld. Dat veiligheidsonderzoek goed wordt gefinancierd. Dat de regels niet veranderen als de volgende financieringsronde sluit.

Het onderzoek van The New Yorker laat precies zien hoeveel die beloftes waard zijn. Niet omdat het slechte mensen zijn. Omdat de prikkelstructuur het bijna onmogelijk maakt om ze na te komen.

De vraag was nooit "welk AI-bedrijf kunnen we vertrouwen?"

De vraag is: hoe bouw je een systeem waarin vertrouwen niet afhangt van één bedrijf dat zijn woord houdt?

Dit is precies waarom we Aimable hebben gebouwd rondom Trusted Intelligence. Geen vertrouwen in beloftes van een leverancier. Geen vertrouwen in de goede bedoelingen van een CEO. Structureel vertrouwen.

Je data wordt beschermd voordat het ooit een model bereikt. Je antwoorden zijn gebaseerd op je eigen geverifieerde bronnen. Je regels worden automatisch gehandhaafd, niet door beleidsdocumenten die stilletjes herschreven kunnen worden.

De modelleverancier kan zijn handvest wijzigen, zijn veiligheidsteam ontslaan of verkopen aan de hoogste bieder. Jouw organisatie blijft beschermd. Omdat het vertrouwen in de architectuur zit, niet in iemands belofte.

Lees het volledige onderzoek van The New Yorker