OpenAI-CEO Sam Altman bevestigde deze week dat zijn bedrijf een nieuwe AI-first-tool bouwt. Hij zei dat dit in schril contrast zou staan met de chaos en chaos van onze telefoons en apps. Hij vergelijkt het gebruik ervan zelfs met ‘in de mooiste hut aan het meer en de bergen zitten en gewoon genieten van de rust en stilte’. Maar u in context begrijpen en uw gewoonten, stemmingen en routines analyseren, voelt intiemer dan de meeste mensen met hun dierbaren, laat staan met hardware.
De kadrering verhult een heel andere werkelijkheid. Apparaten die zijn ontworpen om uw leven voortdurend in de gaten te houden, om details te verzamelen over waar u bent, wat u doet, hoe u praat en nog veel meer vervelende geluiden. Het kan goed klinken als een elektronische waarnemer elke nuance van uw gedrag absorbeert en zich aanpast aan uw leven, totdat u zich herinnert welke gegevens hij gebruikt om de analyse te maken.
Het apparaat ontspannen noemen is hetzelfde als je ogen sluiten en hopen dat je onzichtbaar bent. Dit is toezicht, vrijwillig, maar allesomvattend. De belofte van rust voelt als een slimme dekmantel voor het opgeven van privacy en erger. 24/7 contextbewustzijn staat niet gelijk aan vrede.
AI houdt je in de gaten
Eenzaamheid en vrede zijn afhankelijk van een gevoel van veiligheid. Apparaten die beweren mij gemoedsrust te geven door deze beperkingen op te heffen, laten mij alleen maar bloot. De analogie van de hut aan het meer van Altman is verleidelijk. Wie heeft er niet van gedroomd om te ontsnappen aan de constante pings van meldingen, de knipperende advertenties, de algoritmische chaos van moderne apps, om alles achter zich te laten en op weg te gaan naar een vredig toevluchtsoord? Maar de rust die voortkomt uit constante observatie is slechts een illusie.
Dit is niet alleen maar scepsis. Er is hier sprake van een diepgewortelde paradox. Hoe meer contextbewust en responsief het apparaat is, hoe meer informatie het over u weet. Hoe meer men weet, hoe groter de kans op inbraak.
De versie van sereniteit die Altman ons probeert te verkopen, berust op oneindige wijsheid. We moeten al onze gegevens aan de juiste mensen toevertrouwen en erop vertrouwen dat een algoritme, en het bedrijf erachter, altijd met respect en zorg met onze persoonlijke gegevens zal omgaan. We moeten erop vertrouwen dat ze data nooit in invloed zullen omzetten, nooit zullen gebruiken om ons denken, onze beslissingen, onze politiek, ons bestedingspatroon en onze relaties te beïnvloeden.
Dit is een grote vraag, zelfs voordat we naar Altmans geschiedenis van intellectuele eigendomsrechten kijken.
Bekijk het en neem het mee
Altman heeft herhaaldelijk het gebruik van auteursrechtelijk beschermde werken voor training verdedigd zonder toestemming of compensatie aan de maker. In een interview in 2023 gaf hij toe dat AI-modellen ‘werk van internet hadden geplukt’, inclusief auteursrechtelijk beschermd materiaal zonder expliciete toestemming, en dat eenvoudigweg in bulk hadden opgenomen als trainingsgegevens. Hij probeerde het af te schilderen als een probleem dat alleen kan worden overwonnen ‘nadat we een economisch model hebben gevonden dat de samenleving ten goede kan komen.’ Hij erkende dat veel creatievelingen teleurgesteld waren, maar hij deed alleen vage beloftes dat er ooit iets beters zou komen.
Hij zei dat het “cool” zou kunnen zijn om makers de kans te geven zich aan te melden en een inkomstenaandeel te verdienen als ze dat wilden, maar hij weigerde te garanderen dat een dergelijk model daadwerkelijk zou worden geïmplementeerd. Als eigendom en toestemming optionele gemakken zijn voor makers, waarom worden consumenten dan anders behandeld?
Bedenk dat Sora 2 binnen enkele uren na de lancering werd overspoeld met clips waarin auteursrechtelijk beschermde personages en bekende franchises zonder toestemming werden gebruikt, wat een juridisch verzet veroorzaakte. Het bedrijf veranderde snel van koers en kondigde aan dat het “meer gedetailleerde controle” zou geven aan houders van auteursrechten en zou overstappen op een opt-in-model voor gelijkenissen en karakters.
Deze omkering lijkt misschien op verantwoordelijkheid. Maar het is ook een stilzwijgende erkenning dat het oorspronkelijke plan in wezen was om ieders creatieve inspanningen als gratis grondstof te behandelen. Content behandelen als iets dat je bezit, en niet als iets dat je respecteert.
Zowel op het gebied van de kunst als op het gebied van persoonlijke gegevens lijkt de boodschap van Altman te zijn dat toegang op grote schaal belangrijker is dan toestemming. Een apparaat dat claimt gemoedsrust te bieden door wrijving te elimineren en uw digitale leven te stroomlijnen, betekent een apparaat dat dat leven in de gaten houdt. Gemak is niet hetzelfde als comfort.
Ik beweer hier niet dat alle AI-assistenten slecht zijn. Maar het behandelen van AI als een gereedschapskist is niet hetzelfde als het tot een geloof maken in elk element van mijn leven. Sommigen beweren misschien dat het ontwerp van het apparaat goed is en dat er echte bescherming is. Maar dat argument gaat uit van een perfecte toekomst, beheerd door perfecte mensen. De geschiedenis staat niet aan onze kant.
De tools die Altman en OpenAI willen verkopen zijn misschien goed voor allerlei dingen en de moeite waard voor het handelen in privacy, maar maak die afweging duidelijk. Dat kalme meer zou net zo goed een cameralens kunnen zijn, maar laten we niet doen alsof die niet bestaat.
Volg TechRadar op Google Nieuws En voeg ons toe als voorkeursbron om nieuws, recensies en onze deskundige meningen in uw feed te krijgen. Klik dan zeker op de knop Volgen!
En jij kunt dat natuurlijk ook Volg TechRadar op TikTok voor nieuws, recensies, unboxings in videovorm en ontvang regelmatig updates van ons Wat is het Ook.
De beste zakelijke laptops voor elk budget

