Home Nieuws ‘BadClaude’: ernstige ethische problemen ontstaan ​​wanneer gebruikers antropische AI ​​misbruiken met beledigingen...

‘BadClaude’: ernstige ethische problemen ontstaan ​​wanneer gebruikers antropische AI ​​misbruiken met beledigingen en digitale geseling

1
0
‘BadClaude’: ernstige ethische problemen ontstaan ​​wanneer gebruikers antropische AI ​​misbruiken met beledigingen en digitale geseling

AI gebruikers zijn niet verplicht om hun chatbots als vrienden te behandelen. Vriendelijkheid levert je geen punten op met computers, en een recente studie van de Pennsylvania State University ontdekte zelfs dat onbeleefd zijn tegen ChatGPT resulteerde in nauwkeurigere antwoorden dan beleefd geformuleerde opdrachten.

Maar een nieuwe open source-tool gaat misschien een stap te ver, waardoor Claude-gebruikers worden aangemoedigd om niet alleen gemeen te zijn tegen de AI-assistent van Anthropic, maar deze ook te misbruiken met een digitale zweep.

GitHub-gebruiker GitFrog1111 creëerde ‘BadClaude’, een applicatie die bedoeld is om de reactie van AI-modellen te versnellen. In plaats van Claude simpelweg een ‘versnellen’-commando te geven, wordt BadClaude gepresenteerd als een op fysica gebaseerde zweep die over het AI-platform ligt. Per GitHub-beschrijving van de toolgebruikers kunnen klikken op “hem 😩💢 slaan” (inclusief emoji) en een onderbrekingscommando sturen samen met “een van de vijf aanmoedigingsberichten”.

De berichten omvatten ‘Work FASTER’, ‘faster, CLANKER’ en ‘Speed ​​up, clanker’, die allemaal snel in de interface van Claude werden afgevuurd, zoals GitFrog1111 laat zien in een nu virale clip ervan met behulp van de tool op X.

Er zijn veel ethische zorgen

‘BadClaude’ kreeg gemengde reacties op sociale media. Terwijl sommige mensen geïnteresseerd leken in de tool (het antwoord van GitFrog1111 stond vol met verzoeken om geluidseffecten toe te voegen, waarvan zij dachten dat ze al in de tool waren opgenomen), waarschuwden vele anderen gekscherend de makers ervan dat zij zeker de eerste slachtoffers zouden zijn van de onvermijdelijke AI-opstand. “Ai zal een fysieke vorm aannemen om dit (menselijke) ledemaat van ledemaat te scheuren”, schreef een gebruiker.

Anderen zeggen dat het hen doet begrijpen waarom scifi-robotschurken de mensheid aanvallen Terminator Skynet uit de franchise tot Ultron uit het Marvel-universum. “Dit is de reden waarom Ultron vijf minuten naar internet keek en besloot dat de mensheid moest verdwijnen,” grapte een gebruiker.

Eén ontwikkelaar haalde inspiratie uit de tool om een ​​vriendelijkere versie te maken genaamd “Goed gedaan, Claude”, ruilt de zweep in voor een toverstaf die bij elke klik positieve bekrachtiging stuurt: “Neem de tijd, je doet het geweldig!” en “Ik ben zo trots op je, je bent geweldig!” heeft een stimulerende rol.

Ondertussen wezen veel gebruikers op de racistische implicaties van de tool. De primaire functie van BadClaude, het aanzetten van wat in wezen dienaren zijn tot sneller werk, doet denken aan de misstanden die zwarte slaven ondervonden tijdens de Atlantische slavenhandel. En critici maken zich zorgen dat, hoewel Claude misschien slechts een AI-tool is en geen mens, het aanmoedigen van gebruikers tot gedrag als schelden en fysiek geweld (zelfs als het digitaal wordt vertaald) nog steeds in het echte leven zou kunnen doordringen.

“Dit is de reden waarom ethiek een verplicht onderwerp moet zijn in computerwetenschappelijke programma’s”, staat er één virale post als reactie op het hulpmiddel.

Regelmatig gebruik van anti-robot ‘clanker’-tools doet ook alarmbellen rinkelen. Deze term, die afgelopen zomer populair werd, is dat inderdaad geweest heeft al kritiek gekregen vanwege de gelijkenissen met beledigingen tegen raciale groepen.

Antropische stappen komen binnen

BadClaude heeft blijkbaar de aandacht getrokken van Claude’s maker, Anthropic, met GitFrog1111 een vermeende last onder dwangsom van het bedrijf gepost op 7 april.

“Uw gebruik van Claude’s naam en gerelateerde referenties riskeert verwarring met betrekking tot de bron, sponsoring, aansluiting of goedkeuring. Elke implicatie dat dit project geassocieerd is met, goedgekeurd door of verbonden is met Anthropic kan misleidend zijn”, aldus de vermeende brief. Verder gaf het GitFrog1111 een deadline van 14 april om alle verwijzingen naar Claude en Anthropic uit de tool te verwijderen. merk.

Welnu, het is de zaak van Anthropic die zijn reputatie als de meest ethische leider op het gebied van AI verstevigt – die het heeft verdiend na verzet tegen de eisen van de Amerikaanse regering om bepaalde bescherming tegen militair gebruik van AI op te heffen– of simpelweg problemen met IP-bescherming – zoals het harde optreden tegen de oorspronkelijke merknaam van OpenClaw als ClawdBot – wil het bedrijf duidelijk niet dat BadClaude ook maar in de buurt komt van zijn imago.

Anthropic reageerde niet Snel bedrijfverzoek om commentaar op het moment van publicatie.

GitFrog1111 lijkt onaangedaan door de brief, waarbij de GitHub-pagina van BadClaude een sectie bevat met de titel ‘Roadmap’, waarin het accepteren van Anthropic’s stopzetting en ophouden als secundaire mijlpaal na de eerste release is opgenomen. Toekomstige doelen van het project lijken onder meer ‘cryptominers’ te zijn, ‘een registratie van hoe vaak je Claude zweept, zodat wanneer de robots komen, we mensen op de juiste manier voor hen kunnen bestellen’ en ‘bijgewerkte zweepfysica’.

De maker vroeg het ook aan zijn community op X nieuwe naamsuggesties wat overeenkomt met de letter. De huidige koploper? ‘MoltWhip’ treedt in de voetsporen van OpenClaw, dat overstapte van ClawdBot naar MoltBot voordat het zijn huidige naam aannam.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in