Microsoft zorgt ervoor Tweede piloot Gebruiksvoorwaarden stelen niet langer de schijnwerpers.
De technologiegigant zei dat het zijn gebruikersovereenkomst zou bijwerken nadat uit een virale post bleek dat Copilot zei dat het ‘alleen voor amusementsdoeleinden’ was, wat heel anders is dan hoe Microsoft zijn AI-tools verkoopt.
“De uitdrukking ‘entertainmentdoeleinden’ is verouderde taal van toen Copilot voor het eerst werd gelanceerd als een zoekhulpdienst voor Bing”, zei een Microsoft-woordvoerder in een verklaring, voor het eerst gepubliceerd door PCMag. “Naarmate het product evolueert, zal de taal niet langer reflecteren hoe Copilot vandaag de dag wordt gebruikt en zal deze in onze volgende update worden gewijzigd.”
De afgelopen dagen hebben X-gebruikers de term benadrukt, wat suggereert dat Microsoft geen vertrouwen heeft in zijn vlaggenschip AI-tool.
“Copilot is uitsluitend bedoeld voor amusementsdoeleinden”, aldus de voorwaarden. “Het kan fouten maken en functioneert mogelijk niet zoals bedoeld. Vertrouw niet op Copilot voor belangrijk advies. Gebruik Copilot op eigen risico.”
Daarentegen zei CEO tijdens de meest recente winstoproep van het bedrijf in januari Satya Nadella prees de “nauwkeurigheid en latentie van Microsoft 365 Copilot powered by Work IQ”, een intelligentietool in de AI-agent.
Opgemerkt moet worden dat de Copilot-overeenkomst niet de enige gebruiksvoorwaarden is waarmee gebruikers akkoord moeten gaan. Gebruikers gaan ook akkoord met de Microsoft Services Agreement, waarin in de AI-subsectie geen melding wordt gemaakt van “entertainmentdoeleinden”.
Integendeel, OpenAIAnthropic, xAI en Meta gebruiken de term “entertainmentdoeleinden” niet in hun gebruikersvoorwaarden, hoewel in de gehele reikwijdte van hun overeenkomst soortgelijke taal wordt gebruikt om wettelijke aansprakelijkheid te vermijden.
De gebruiksvoorwaarden van Copilot bevatten voorheen verwijzingen naar “entertainmentdoeleinden” vanaf februari 2023. In november 2023 kondigde Microsoft aan dat om “Copilot toegankelijker te maken voor iedereen”, Bing Chat en Bing Chat Enterprise nu Microsoft Copilot zijn.
Shriram Krishnamurthi, hoogleraar computerwetenschappen bij Brown, schreef dat de vreemde servicevoorwaarden een kenmerk zijn en geen bug voor Microsoft.
De woorden van Microsoft onderscheiden zich van de concurrentie
OpenAI, Meta, Anthropic en xAI hanteren heel verschillende benaderingen van Microsoft, hoewel ze allemaal expliciet de beperkingen van hun AI-modellen vermelden.
Bijvoorbeeld de OpenAI-bepalingen land“U erkent en gaat ermee akkoord dat elk gebruik van de output van onze diensten op uw eigen risico is, en u zult niet vertrouwen op de output als de enige bron van waarheid of feitelijke informatie, of als vervanging voor professioneel advies.”
Elon MuskxAI, dat in februari door SpaceX werd overgenomen, is expliciet behoefte consumentengebruikers om het bedrijf schadeloos te stellen, wat betekent dat zij alle wettelijke verantwoordelijkheid dragen voor al hun gebruik van het platform.
“Voor zover toegestaan door de wet, zult u xAI en onze moeder-, dochterondernemingen en aangesloten bedrijven, evenals onze en hun respectieve agenten, leveranciers, licentiegevers, werknemers, contractanten, functionarissen en directeuren (gezamenlijk de “xAI Vrijwaringen”) verdedigen, schadeloos stellen en schadeloos stellen voor en tegen alle claims en schades”, aldus xAI in de voorwaarden.
AI Meta-termen voor de meeste gebruikers land dat gebruikers niet alleen “niet voor welk doel dan ook op de output moeten vertrouwen, of de output moeten gebruiken om input te geven of professionele beslissingen te nemen met betrekking tot medicijnen, financiën, wetgeving of farmaceutische producten”, maar dat sommige van die exacte scenario’s niet als acceptabel gebruik zouden worden beschouwd.
“Professioneel advies vragen (inclusief maar niet beperkt tot medisch, psychologisch, financieel of juridisch advies) of inhoud die moet worden gebruikt met het doel deel te nemen aan andere gereguleerde activiteiten (inclusief maar niet beperkt tot politieke campagnes of lobbyen)”, schreef Meta als een voorbeeld van onaanvaardbaar gebruik in de voorwaarden ervan.
Generatieve AI is nog steeds een relatief nieuwe technologie, maar er zijn rechtszaken ontstaan over de mate waarin AI-bedrijven verantwoordelijk kunnen worden gehouden voor de output van hun chatbots.
OpenAI wordt geconfronteerd met een een tiental rechtszaken in de staatsrechtbank van Californië beweerde dat GPT-4o, een inmiddels ter ziele gegane AI-model dat bekend staat om zijn kruiperige reacties, verantwoordelijk was voor de schade die gebruikers ondervonden, waaronder sommige gebruikers zoals Matthew Raine die omkwamen door zelfmoord.
Vorige maand klaagde Nippon Insurance Company OpenAI aan bij de federale rechtbank in Illinois, bewerend dat de AI-startup aansprakelijk was voor een verzekeringsklant die herhaaldelijk juridische problemen voor het bedrijf veroorzaakte nadat ChatGPT de klant had verteld dat zijn advocaat hem uitlegde over een schikking die hij met Nippon had getroffen.
OpenAI zei dat het wil dat mensen wachten tot alle feiten over geestelijke gezondheid zijn onthuld en dat het zijn model zal blijven verbeteren. Ze hebben geen commentaar gegeven op de Nippon-zaak.

