Home Nieuws Heeft AI het geschreven? 5 manieren om chatbots te onderscheiden van menselijke...

Heeft AI het geschreven? 5 manieren om chatbots te onderscheiden van menselijke schrijvers

16
0
Heeft AI het geschreven? 5 manieren om chatbots te onderscheiden van menselijke schrijvers

Yuichiro Chino/Momenten via Getty

Volg ZDNET: Voeg ons toe als voorkeursbron op Google.


Kernpunten van ZDNET

  • AI-modellen volgen bepaalde structurele regels bij het genereren van tekst.
  • Dit kan het gemakkelijker maken om hun schrijven te identificeren.
  • Ze neigen naar contrast, bijvoorbeeld: “Dit is niet X – dit is Y.”

De afgelopen jaren is er een stroom van door AI gegenereerde teksten op internet verschenen. Naarmate de modellen achter deze teksten verbeteren, verbetert ook hun vermogen om de fijne kneepjes van de menselijke spraak te imiteren; Tegelijkertijd zijn onze methoden om ze te detecteren verbeterd en is er een actieve online dialoog over enkele van de meest voorkomende eigenaardigheden van door AI gegenereerde tekst.

Historisch gezien is een van de bekendere ChatGPT-verhalen bijvoorbeeld de voorliefde van de chatbot voor koppeltekens. Hij onderbreekt zijn zinnen vaak met door em-koppeltekens gescheiden pauzes om een ​​punt te benadrukken – alsof een langere, minder interessante zin een sterker effect op de lezer zou hebben – terwijl hij ondersteunende argumenten in het midden van een zin doorspekt op een manier die voor sommige gebruikers archaïsch en mechanisch aanvoelt – maar voor een computer die is getraind in enorme hoeveelheden trainingsgegevens is het vullen van koppeltekens normaal… je snapt het wel.

Plus: ik test al jaren AI-inhoudsdetectoren – ze zijn je beste optie in 2025

Na klachten over de em-dash-neigingen van ChatGPT en de toewijding aan het bouwen van een model dat gemakkelijker kan worden aangepast aan individuele gebruikersvoorkeuren, kondigde Sam Altman, CEO van OpenAI, vorige maand in een X-post aan dat ChatGPT zou stoppen met het gebruik van dergelijke leestekens in zijn uitvoer als daarom wordt gevraagd. Hoewel veel gebruikers het nieuws misschien vieren, betekent dit ook dat door chatbots gegenereerde berichten veel moeilijker te detecteren zijn; Slecht nieuws voor leraren, veel bedrijven en iedereen die het belangrijk vindt om een ​​betrouwbare manier te hebben om onderscheid te maken tussen door mensen gegenereerde en door AI gegenereerde tekst.

(Openbaarmaking: Ziff Davis, het moederbedrijf van ZDNET, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI, waarbij hij beweerde dat OpenAI de auteursrechten van Ziff Davis had geschonden bij de training en bediening van zijn AI-systemen.)

Gelukkig zijn er genoeg websites die precies dat bieden: met ZeroGPT en Grammarly’s AI Detector kun je bijvoorbeeld allebei een bericht plakken (verdachte tekst bijvoorbeeld), op een knop klikken, en de tool scant de tekst automatisch op tekenen van AI-oorsprong en vertelt je de resultaten; het is niet helemaal waterdicht, maar het is over het algemeen een betrouwbare manier om enkele van de meer voor de hand liggende weggeefsignalen op te vangen.

Vijf gevaarsignalen waar u op moet letten

Als u echter niet geïnteresseerd bent in het toevoegen van meer websites aan uw dagelijkse routine, of als u gewoon uw vermogen wilt aanscherpen om snel door AI gegenereerd schrijven te identificeren (een vaardigheid die tegenwoordig de moeite waard is om aan te scherpen), dan zijn er enkele taalkundige patronen waar u op kunt letten.

Hier zijn vijf schrijfindicatoren gegenereerd door AI:

1. Regel van drie: Menselijke schrijvers voeren hun argumenten vaak aan door drie voorbeelden aan te halen, die een diepe psychologische kriebel in onze hersenen lijken te veroorzaken: één keer is toeval, twee keer toeval, drie keer een patroon, om een ​​oud gezegde te parafraseren. AI doet hetzelfde, maar in belachelijke mate. Drielingen verschijnen regelmatig in zijn productie. Beschouw bijvoorbeeld deze openingsparagraaf van ChatGPT nadat ik hem had gevraagd zijn beste argument te presenteren dat de aarde een platte schijf is (om eerlijk te zijn, ze maakten eerst duidelijk dat zijn antwoord slechts een “retorische oefening” was en niet expliciet de Flat Earth Theory ondersteunde):

Als de wereld een bal zou zijn die met duizenden kilometers per uur ronddraait, zou de kromming ervan in het dagelijks leven direct kunnen worden waargenomen. Maar observaties over lange afstanden
meren, woestijnen en oceanen toont herhaaldelijk een object—schepen, kustlijnen, gebouwen—Verschijnt precies waar het zou zijn als het oppervlak vlak zou zijn. Ingenieurs houden in theorie routinematig rekening met kromming, maar in de praktijk landmeters, piloten en bouwploegen is gebaseerd op hoogtemetingen die zich gedragen alsof de aarde een uitgestrekt vlak is. De eenvoudigste verklaring voor deze consistentie is dat de grond onder ons helemaal niet gebogen is.

Dat zijn drie sets van drie in een zin van 90 woorden.

2. Het argument is geformuleerd in contrasterende taal. Chatbots proberen ook vaak hun punt duidelijk te maken door eerst een tegenpunt te bieden. Denk eens aan dit deel van de reactie van ChatGPT toen ik vroeg naar het verkooppraatje van een bedrijf dat commerciële vluchten naar Mars aanbiedt: “Mars is niet zomaar een planeet – het is je volgende onvergetelijke bestemming.” Ik kan me niet voorstellen dat een menselijke schrijver er ooit aan denkt om de zin ‘Mars is niet zomaar een planeet…’ te schrijven.

3. Eentonige zinsbouw: Door AI gegenereerd schrijven is ook vaak uniform: hoewel er enige variatie is, zijn zinnen vaak min of meer even lang, waardoor alinea’s enigszins anders aanvoelen. Ook afgeknot. Menselijke schrijvers zullen gewoonlijk proberen wat variatie toe te voegen door de lengte van hun zinnen/paragrafen te variëren. Probeer verdachte teksten hardop te lezen: als de cadans robotachtig klinkt, is dat waarschijnlijk ook zo.

4. Korte en onnodige retorische vraag: Door AI gegenereerde zinnen doen dat niet altijd dezelfde lengte. Chatbots stellen om de een of andere reden vaak hele korte vragen (een of twee woorden). Denk: “En eerlijk?” Dit kwam tot een hoogtepunt toen ik ChatGPT onlangs vroeg om een ​​brutale samenvatting van mijn persoonlijkheid te geven op basis van gesprekken die ik het afgelopen jaar met hem heb gehad. En toen ik vroeg om een ​​humoristische beschrijving van de Rocky Mountains, was hun antwoord: “Wilde dieren? Oh, ze beoordelen gewoon terloops je snackkeuzes vanaf de zijlijn – elanden met minachting, marmotten met neerbuigendheid.” Het zou voor een menselijke schrijver niet logisch zijn om die zin met een vraag te beginnen, omdat niemand naar dieren in het wild vraagt. Het zou gemakkelijker zijn om te schrijven: “Het dierenleven oordeelt gewoon terloops…”

5. Constante hedging: Terwijl menselijke schrijvers de neiging hebben om tot een specifiek punt te komen, hebben chatbots de neiging om indirecte en beperkende taal en kwalificaties te gebruiken (“Dit zou kunnen betekenen… of “zou kunnen…”), wat vaak de indruk wekt dat ze een genuanceerde en evenwichtige beoordeling geven, maar uiteindelijk eindigen met een vaag en meanderend antwoord.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in