Home Nieuws De helft van de Amerikaanse volwassenen die sociale media gebruiken, wil betere...

De helft van de Amerikaanse volwassenen die sociale media gebruiken, wil betere labels op AI-berichten, vindt CNET

1
0
De helft van de Amerikaanse volwassenen die sociale media gebruiken, wil betere labels op AI-berichten, vindt CNET

Iedereen die tegenwoordig door sociale media scrollt, weet dat AI overal is. Maar we zijn er niet altijd goed in om het te herkennen als we het zien. Dit is een enorm probleem en onze frustratie over AI groeit.

AI vuil water heeft elk platform geïnfecteerd, van zielloos beeld naar vreemd filmpje En oppervlakkig geletterde teksten. De meerderheid van de Amerikaanse volwassenen die sociale media gebruiken (94%) denkt dat ze inhoud zijn tegengekomen die is gemaakt of aangepast door AI, maar slechts 44% van de Amerikaanse volwassenen zegt er vertrouwen in te hebben dat ze echte foto’s en video’s kunnen onderscheiden van inhoud die door AI is gemaakt, volgens een exclusief onderzoek van CNET.

Lees meer: AI Slop crasht het internet. Deze mensen vechten om het te redden.

Er zijn veel verschillende manieren waarop mensen AI-inhoud bestrijden. Sommige oplossingen richten zich op betere labels voor door AI gegenereerde inhoud, omdat het steeds moeilijker wordt om onze ogen te vertrouwen. Van de 2.443 respondenten die sociale media gebruiken, gelooft de helft (51%) dat we betere online AI-labels nodig hebben. Anderen (21%) zijn van mening dat er een totaal verbod moet komen op door AI gegenereerde inhoud op sociale media. Slechts een kleine groep (11%) van de respondenten zei dat ze AI-inhoud nuttig, informatief of vermakelijk vonden.

AI gaat nergens heen en verandert fundamenteel de vorm van het internet en onze relatie ermee. Uit ons onderzoek blijkt dat we nog een lange weg te gaan hebben.

Belangrijkste bevindingen

  • De meeste Amerikaanse volwassenen die sociale media gebruiken (94%) denken dat ze AI-inhoud op sociale media zijn tegengekomen, maar veel minder volwassenen (44%) kunnen met vertrouwen onderscheid maken tussen echte en valse afbeeldingen en video’s.
  • Veel Amerikaanse volwassenen (72%) zeggen actie te ondernemen om te bepalen of een afbeelding of video echt is, maar anderen doen niets, vooral onder babyboomers (36%) en generatie X (29%).
  • De helft van de Amerikaanse volwassenen (51%) is van mening dat inhoud die door AI is gemaakt en bewerkt, beter moet worden gelabeld.
  • Eén op de vijf (21%) is van mening dat AI-inhoud zonder uitzondering op sociale media moet worden verboden.

Bekijk dit: AI is niet te onderscheiden van de werkelijkheid. Hoe herkennen we nepvideo’s?

Volwassenen in de VS hebben het gevoel dat ze AI-media niet kunnen herkennen

Zie het AI-tijdperk niet meer vertrouwen. Tools zoals OpenAI Sora videogenerator en Google Nano-banaan beeldmodellen kunnen hyperrealistische media creëren, waarbij chatbots naadloos stukken tekst construeren die klinken alsof ze door echte mensen zijn geschreven.

Het is dus begrijpelijk dat een kwart (25%) van de Amerikaanse volwassenen zegt niet zeker te zijn van hun vermogen om echte afbeeldingen en video’s te onderscheiden van door AI gegenereerde afbeeldingen en video’s. Oudere generaties, waaronder Boomers (40%) en Gen X (28%), hebben het minst vertrouwen. Als mensen niet veel kennis of blootstelling aan AI hebben, voelen ze zich vaak onzeker over hun vermogen om AI accuraat te herkennen.

Mensen ondernemen actie om inhoud op verschillende manieren te verifiëren

Het vermogen van AI om het echte leven na te bootsen, maakt het steeds belangrijker om te verifiëren wat we online zien. Bijna drie op de vier Amerikaanse volwassenen (72%) zeggen dat ze actie ondernemen om te bepalen of een afbeelding of video echt is als deze hun vermoedens wekt, waarbij Generatie Z de meest waarschijnlijke leeftijdsgroep is (84%) die dit zal doen. De meest voor de hand liggende (en populaire) methode is het nauwkeurig onderzoeken van afbeeldingen en video’s op visuele aanwijzingen of artefacten. Meer dan de helft van de volwassenen in de VS (60%) doet dit.

Maar AI-innovatie is een tweesnijdend zwaard; modellen zijn enorm verbeterd, waardoor de eerdere fouten zijn geëlimineerd waarop we vertrouwden om door AI gegenereerde inhoud te herkennen. Em-streepjes zijn nooit een teken geweest van betrouwbare AI, maar extra vingers in afbeeldingen en continuïteitsfouten in video’s waren vroeger prominente alarmsignalen. Nieuwere AI-modellen maken doorgaans geen voetgangersfouten. We moeten dus allemaal harder werken om te bepalen wat echt is en wat nep is.

ai-slop-cnet-survey-action-taken.png

U kunt zoeken naar onderscheidingen en labels om AI-inhoud te identificeren.

Cole Kan/CNET/Getty Images

Naarmate de visuele indicatoren van AI verdwijnen, worden andere vormen van inhoudsverificatie steeds belangrijker. De volgende twee meest voorkomende methoden zijn het controleren van labels of openbaarmakingen (30%) en het zoeken naar inhoud elders online (25%), zoals op nieuwssites of via omgekeerde afbeeldingen zoeken. Slechts 5% van de respondenten meldde dat ze een diep nep detectietools of websites.

Toch doet 25% van de Amerikaanse volwassenen niets om te bepalen of de inhoud die ze online zien echt is. Dit gebrek aan actie komt het meest voor onder de generaties babyboomers (36%) en generatie X (29%). Dit is zorgwekkend: we hebben gezien dat AI een effectief hulpmiddel is intimiderend En truc. Het begrijpen van de oorsprong van een bericht of inhoud is een belangrijke eerste stap bij het navigeren op internet, waar alles kan worden nagemaakt.

De helft van de volwassenen in de VS wil betere AI-labels

Veel mensen zijn op zoek naar oplossingen om AI-aanvallen aan te pakken. Etikettering is een geweldige kans. Labeling is afhankelijk van gebruikers van sociale media om bekend te maken dat hun berichten met behulp van AI zijn gemaakt. Dit kan ook achter de schermen worden gedaan via sociale-mediaplatforms, maar het is een beetje moeilijk en leidt tot willekeurige resultaten. Dit is misschien de reden waarom 51% van de Amerikaanse volwassenen gelooft dat we een betere etikettering van AI-inhoud nodig hebben, inclusief deepfakes. De sterkste steun werd gegeven door de Millennial- en Gen Z-generaties, respectievelijk 56% en 55%.

attitude-ai-slop-cnet-enquête.png

Zeer weinigen (11%) vonden AI-inhoud nuttig, informatief of vermakelijk.

Cole Kan/CNET/Getty Images

Een andere oplossing is gericht op het beheersen van de stroom aan AI-inhoud die op sociale media wordt gedeeld. Alle grote platforms staan ​​door AI gegenereerde inhoud toe, zolang de inhoud hun algemene inhoudsrichtlijnen niet schendt. Er is bijvoorbeeld geen sprake van illegale of beledigende inhoud. Maar sommige platforms hebben tools geïntroduceerd om de hoeveelheid door AI gegenereerde inhoud die u in uw feed ziet te beperken; Pinterest wordt gelanceerd het filter vorig jaar, toen TikTok nog bestond testen een paar van hemzelf. Het idee is om iedereen de mogelijkheid te geven om door AI gegenereerde inhoud toe te staan ​​of uit te sluiten van hun feed.

Toch is 21% van de respondenten van mening dat AI-inhoud volledig moet worden verboden op sociale media, zonder uitzonderingen. Dit cijfer is met 25% het hoogste onder Generatie Z. Op de vraag of zij van mening zijn dat AI-inhoud is toegestaan, maar strikt gereguleerd, antwoordde 36% ja. Het lage percentage kan worden verklaard door het feit dat slechts 11% denkt dat AI-inhoud betekenisvolle waarde biedt (vermakelijk, informatief of nuttig) en 28% zegt dat het geen enkele waarde biedt.

Hoe u AI-inhoud kunt beperken en potentiële deepfakes kunt opsporen

Je beste verdediging tegen misleiding door AI is oplettend zijn en op je instinct vertrouwen. Als iets te raar, te glanzend of te mooi is om waar te zijn, is dat waarschijnlijk ook het geval. Maar er zijn nog andere stappen die u kunt nemen, zoals het gebruik van een deepfake-detectietool. Er zijn veel opties; Ik raad aan om te beginnen met Initiatief voor inhoudauthenticiteitdeze tool, omdat deze met verschillende bestandstypen werkt.

Je kunt ook het account controleren dat het bericht heeft gedeeld op waarschuwingen. Vaak wordt AI-afvalwater gedeeld door bulkafvalwaterproducenten, en je kunt dit gemakkelijk zien in hun feeds. Ze zullen vol vreemde video’s zitten die geen continuïteit of gelijkenis lijken te hebben. Je kunt ook controleren of iemand die je kent hem volgt of dat het account niemand anders volgt (dat is een alarmsignaal). Spamberichten of frauduleuze links zijn ook een indicatie dat het account niet legitiem is.

Als je de AI-inhoud die je op je sociale feeds ziet wilt beperken, bekijk dan onze gids om deze in of uit te schakelen Meta-AI op Instagram en Facebook en filteren AI-berichten op Pinterest. Als je een slop tegenkomt, kun je het bericht markeren als iets waarin je niet geïnteresseerd bent, waardoor het algoritme laat zien dat je andere soortgelijke berichten niet wilt zien. Buiten sociale media kunt u dit uitschakelen Apple-intelligentieAI in Pixel En Melkweg telefoon en Gemini komt binnen Google Zoeken, Gmail en Documenten.

Zelfs als je dit allemaal doet en nog steeds soms voor de gek wordt gehouden door de AI, voel je dan niet al te schuldig. We kunnen als individuen niet veel doen om terug te vechten tegen de enorme stroom van AI-afvalwater. We kunnen allemaal wel eens fouten maken. Voordat we een universeel systeem hebben dat AI effectief kan detecteren, zullen we moeten vertrouwen op de tools die we hebben en ons vermogen om elkaar te informeren over wat we nu kunnen doen.

Methodologie

CNET gaf YouGov Plc de opdracht om het onderzoek uit te voeren. Alle cijfers zijn, tenzij anders vermeld, afkomstig van YouGov Plc. De totale steekproefomvang bedroeg 2.530 volwassenen, van wie 2.443 gebruik maakten van sociale media. Van 3 tot en met 5 februari 2026 is veldwerk uitgevoerd. Het onderzoek is online uitgevoerd. Deze cijfers zijn berekend en vertegenwoordigen alle Amerikaanse volwassenen (van 18 jaar en ouder).



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in