Home Nieuws Waarom het grootste risico van AI in het hoger onderwijs de erosie...

Waarom het grootste risico van AI in het hoger onderwijs de erosie van het leren is

2
0
Waarom het grootste risico van AI in het hoger onderwijs de erosie van het leren is

Publiek debat over kunstmatige intelligentie in het hoger onderwijs heeft grotendeels gemeenschappelijke zorgen opgeroepen: bedriegen. Zullen studenten chatbots gebruiken om essays te schrijven? Mag de instructeur dat weten? Moeten universiteiten de technologie verbieden? Omarm het?

Deze zorg is begrijpelijk. Als u zich echter te veel op bedrog concentreert, wordt de grotere transformatie genegeerd die al plaatsvindt, namelijk een transformatie die niet alleen afwijkend gedrag van leerlingen omvat, zelfs niet in de klas.

De universiteit aangenomen AI op veel terreinen van het institutionele leven. Sommige toepassingen zijn grotendeels onzichtbaar, zoals systemen die helpen bij het toewijzen van middelen, markeer studenten die risico lopen.optimaliseer de cursusplanning of automatiseer routinematige administratieve beslissingen. Andere toepassingen liggen meer voor de hand. Studenten gebruiken AI-tools om samen te vatten en te studeren, docenten gebruiken ze om opdrachten en syllabi te maken, en onderzoekers gebruiken ze om code te schrijven, literatuur te scannen en urenlang saai werk in een paar minuten te comprimeren.

Mensen kunnen AI gebruiken om vals te spelen of werkopdrachten over te slaan. Maar het wijdverbreide gebruik van AI in het hoger onderwijs, en de veranderingen die het met zich meebrengt, roepen een diepere vraag op: wat gebeurt er met het hoger onderwijs als machines beter in staat worden het werk van onderzoek en leren te doen? Welk doel dient de universiteit?

De afgelopen acht jaar hebben we de morele implicaties van wijdverbreide betrokkenheid bij AI bestudeerd als onderdeel van een gezamenlijk onderzoeksproject tussen Centrum voor Toegepaste Ethiek aan UMass Boston en het Instituut voor Ethiek en opkomende technologieën. In een nieuwste witboekWij betogen dat naarmate AI-systemen autonomer worden, de ethische belangen van AI-gebruik op hoger onderwijsniveau zullen toenemen, evenals de potentiële gevolgen.

Naarmate deze technologieën beter worden in het produceren van kenniswerk – het ontwerpen van lessen, het schrijven van papers, het voorstellen van experimenten en het samenvatten van moeilijke teksten – zullen ze universiteiten niet alleen beter maken. productief. Ze lopen het risico de leer- en begeleidingsecosystemen waarop deze instellingen zijn gebouwd en waarvan ze afhankelijk zijn, te vernietigen.

Niet-autonome AI

Beschouw drie soorten AI-systemen en hun impact op het universitaire leven:

AI-aangedreven software wordt al wereldwijd in het hoger onderwijs gebruikt acceptatiebeoordelingaankoop, academisch adviesen institutionele risicobeoordeling. Deze worden als “niet-autonome” systemen beschouwd omdat ze taken automatiseren, maar iemand is “betrokken” en gebruikt het systeem als hulpmiddel.

Deze technologie kan vormt een risico voor de privacy en veiligheid van studentengegevens. Ze kunnen ook bevooroordeeld zijn. En vaak ontbreekt het hen aan transparantie bij het vaststellen van de oorzaak van dit probleem. Wie heeft toegang tot leerlinggegevens? Hoe wordt een “risicoscore” gegenereerd? Hoe voorkomen we dat systemen onrecht reproduceren of bepaalde leerlingen behandelen als problemen die moeten worden aangepakt?

Deze vragen zijn serieus, maar conceptueel niet nieuw, althans op het gebied van de informatica. Universiteiten beschikken doorgaans over compliance-kantoren, institutionele beoordelingsraden en bestuursmechanismen die zijn ontworpen om deze risico’s te helpen aanpakken of beperken, hoewel deze soms niet aan hun doelstellingen voldoen.

Hybride AI

Het hybride systeem omvat een verscheidenheid aan tools, waaronder AI-ondersteunde chatbots voor bijles, gepersonaliseerde feedbacktools en geautomatiseerde schrijfondersteuning. Ze vertrouwen vaak op generatieve AI-technologievooral grote taalmodellen. Hoewel menselijke gebruikers algemene doelen stellen, zijn de tussenstappen die het systeem neemt om die doelen te bereiken vaak niet gespecificeerd.

Hybride systemen geven steeds meer vorm aan het dagelijkse academische werk. Studenten gebruiken ze als schrijfgenoten, docenten, brainstormpartneren uitleg op aanvraag. Faculteit gebruikt het om rubrieken te produceren, cursusplannen te ontwikkelen en syllabi te ontwerpen. Onderzoekers gebruiken het om artikelen samen te vatten, commentaar te geven op concepten, experimenten te ontwerpen en code te genereren.

Dit is waar het gesprek over ‘vals spelen’ ligt. Nu steeds meer studenten en docenten voor hulp afhankelijk zijn van technologie, is het normaal dat u zich afvraagt ​​welk soort kennis in de loop van de tijd verloren kan gaan. Maar hybride systemen roepen ook complexere ethische vragen op.

Eén daarvan heeft betrekking op transparantie. AI-chatbots bieden natuurlijke taalinterfaces die het moeilijk maken om onderscheid te maken tussen interactie met een mens en interactie met een geautomatiseerde agent. Dit kan de mensen met wie ze omgaan vervreemden en irriteren. Een student die stof voor een examen doorneemt, moet kunnen zien of hij met zijn onderwijsassistent praat of met een robot. Een student die feedback op een paper leest, moet weten of het door de docent is geschreven. Alles wat minder is dan transparantie in een geval als dit zal alle betrokkenen vervreemden en de focus van academische interacties verleggen van leermiddelen naar leermiddelen of technologie. Onderzoekers van de Universiteit van Pittsburgh hebben dat aangetoond deze dynamiek creëert gevoelens van onzekerheid, angst en wantrouwen voor studenten. Dit is een problematisch resultaat.

De tweede ethische vraag betreft intellectuele verantwoordelijkheid en beloning. Als docenten AI gebruiken om opdrachten te construeren en studenten AI gebruiken om antwoorden te construeren, wie doet dan de evaluatie en wat wordt er feitelijk geëvalueerd? Als feedback deels door machines wordt gegenereerd, wie is er dan verantwoordelijk als deze misleidt, ontmoedigt of verborgen veronderstellingen oproept? En wanneer AI aanzienlijk bijdraagt ​​aan de synthese of het schrijven van onderzoek, zullen universiteiten een bijdrage leveren vereist duidelijkere normen rond auteurschap en verantwoordelijkheid—Niet alleen voor studenten, maar ook voor docenten.

Ten slotte is er de kritische kwestie van cognitieve ontlading. AI kan vervelend werk verminderen, en dat is niet per definitie slecht. Maar het kan gebruikers ook afleiden van de onderdelen van het leren die competentie opbouwen, zoals het genereren van ideeën, het worstelen met verwarring, het herzien van onhandige concepten en het leren herkennen van de eigen fouten.

Autonome agent

De belangrijkste veranderingen kunnen betrekking hebben op systemen die minder op assistenten en meer op agenten lijken. Hoewel echt autonome technologie nog steeds een ambitie is, een droom onderzoeker “in de doos”– een AI-systeem voor agenten dat zijn eigen onderzoek kan doen – wordt steeds realistischer.

Agenttools verwacht ‘vrije tijd’ om te werken die zich richt op meer menselijke capaciteiten zoals empathie en probleemoplossing. Bij het lesgeven kan dit betekenen dat docenten nog steeds lesgeven in de primaire zin, maar dat meer dagelijkse onderwijstaken kunnen worden uitbesteed aan systemen die zijn geoptimaliseerd voor efficiëntie en schaal. Op dezelfde manier gaat het onderzoek in de richting van systemen die de onderzoekscyclus steeds meer kunnen automatiseren. In sommige domeinen is dit al zichtbaar een robotlaboratorium dat continu draaitautomatiseer de meeste experimenten en selecteer zelfs nieuwe tests op basis van eerdere resultaten.

Op het eerste gezicht klinkt dit misschien als een productiviteitsboost. Maar universiteiten zijn geen informatiefabrieken; het is een praktijksysteem. Ze zijn afhankelijk van een aantal afgestudeerde studenten en academici die aan het begin van hun carrière leren lesgeven en onderzoek doen door aan hetzelfde werk deel te nemen. Als autonome agenten meer van de ‘routinematige’ verantwoordelijkheden op zich zouden nemen die historisch gezien een rol hebben gespeeld in het academische leven, zouden universiteiten door kunnen gaan met het produceren van cursussen en publicaties, terwijl ze stilletjes de mogelijkheidsstructuren zouden verkleinen die de expertise in de loop van de tijd in stand houden.

Dezelfde dynamiek geldt ook voor bachelorstudenten, zij het in verschillende opleidingen. Wanneer AI-systemen op verzoek verklaringen, ontwerpen, oplossingen en leerplannen kunnen bieden, is de verleiding groot om de meest uitdagende onderdelen van het leren los te laten. Voor de industrie die AI naar universiteiten pusht, lijkt het erop dat dit soort werk ‘inefficiënt’ is en dat studenten dit beter door machines kunnen laten doen. Maar het is de aard van de strijd die duurzaam begrip opbouwt. De cognitieve psychologie heeft aangetoond dat studenten intellectueel groeien door het construeren, herzien, falen, opnieuw proberen, het worstelen met verwarring en het herzien van zwakke argumenten. Het is een taak om te leren hoe te leren.

Alles bij elkaar suggereren deze ontwikkelingen dat het grootste risico van automatisering in het hoger onderwijs niet simpelweg de vervanging van specifieke taken door machines is, maar de erosie van het bredere ecosysteem van praktijken dat lange tijd onderwijs, onderzoek en leren heeft ondersteund.

Een ongemakkelijk keerpunt

Dus wat is het doel van universiteiten in een wereld waar kenniswerk steeds meer geautomatiseerd wordt?

Eén mogelijk antwoord is om van universiteiten machines te maken die kwalificaties en kennis produceren. Daar is de kernvraag output: studeren studenten af ​​met een diploma? Worden er papieren en ontdekkingen geproduceerd? Als een autonoom systeem deze resultaten efficiënter kan leveren, dan heeft het agentschap reden om het over te nemen.

Weer andere antwoorden beschouwen universiteiten als meer dan outputmachines, waarbij wordt erkend dat de waarde van het hoger onderwijs gedeeltelijk in het ecosysteem zelf ligt. Dit model hecht intrinsieke waarde aan de kansen waardoor nieuwelingen experts worden, aan de mentorstructuren waardoor oordeel en verantwoordelijkheid worden ontwikkeld, en aan het onderwijsontwerp dat productieve strijd aanmoedigt in plaats van deze te optimaliseren. Hier gaat het er niet alleen om of kennis en graden worden geproduceerd, maar ook hoe ze worden geproduceerd en welke soorten mensen, capaciteiten en gemeenschappen daarbij worden gevormd. In deze versie zijn universiteiten bedoeld om te functioneren als ecosystemen die op betrouwbare wijze menselijke expertise en oordeelsvorming vormgeven.

In een wereld waarin wetenschappelijk werk steeds meer geautomatiseerd wordt, vinden wij dat universiteiten zich moeten afvragen wat de voordelen van het hoger onderwijs zijn voor hun studenten, academici die net aan hun carrière beginnen, en de gemeenschappen die zij dienen. Het antwoord zal niet alleen bepalen hoe AI wordt toegepast, maar ook wat de moderne universiteit zal worden.


Nir Eisikovits is hoogleraar filosofie en directeur van het Centrum voor Toegepaste Ethiek in UMass Boston.

Jacob Burley is junior onderzoeker bij het Centrum voor Toegepaste Ethiek van UMass Boston.

Dit artikel is opnieuw gepubliceerd van Gesprek onder een Creative Commons-licentie. Lezen origineel artikel.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in