Home Nieuws Speciale docenten gebruiken AI om deze lacunes op te vullen, maar de...

Speciale docenten gebruiken AI om deze lacunes op te vullen, maar de impact is onbekend

9
0
Speciale docenten gebruiken AI om deze lacunes op te vullen, maar de impact is onbekend

In het speciaal onderwijs in Amerika is de financiering zeer beperkt Het personeelstekort wordt steeds wijdverspreiderwaardoor het voor veel schooldistricten moeilijk is om dit te doen dienst gekwalificeerde en bereidwillige beoefenaars.

Te midden van deze al lang bestaande uitdaging is dat zo toenemende belangstelling bij het gebruik kunstmatige intelligentie een instrument dat kan helpen de gaten te dichten waarmee districten momenteel worden geconfronteerd en de arbeidskosten kan verlagen.

Meer dan 7 miljoen kinderen ontvangen federaal gefinancierde rechten Onderwijswet voor personen met een handicapdat studenten toegang garandeert tot instructie die is afgestemd op hun unieke fysieke en psychologische behoeften, evenals juridische processen waarmee gezinnen over steun kunnen onderhandelen. Bij speciaal onderwijs is een verscheidenheid aan professionals betrokken, waaronder revalidatiespecialisten, logopedisten en onderwijsassistenten in de klas. Maar het aantal van deze specialisten is beperktondanks dat ze hun diensten nodig blijken te hebben.

Als hoogleraar speciaal onderwijs die met AI werkt, zie ik de potentie en de nadelen ervan. Hoewel AI-systemen de administratieve lasten kunnen verminderen, deskundige begeleiding kunnen bieden en overweldigde professionals kunnen helpen hun dossiers te beheren, kunnen ze ook ethische uitdagingen met zich meebrengen – van machinevooroordelen tot bredere kwesties van vertrouwen in geautomatiseerde systemen. Het risico bestaat ook dat de bestaande problemen met de manier waarop speciale onderwijsdiensten worden geleverd, worden verergerd.

Maar sommigen in het veld kiezen ervoor om AI-tools te testen, in plaats van te wachten op de juiste oplossing.

Snellere IEP’s, maar hoe geïndividualiseerd zijn ze?

AI heeft speciale onderwijsplanning, personeelsvoorbereiding en beoordeling opgezet.

Een voorbeeld is het geïndividualiseerde onderwijsprogramma, of IEP, dat het belangrijkste instrument is voor het begeleiden van de diensten die een kind ontvangt. Een IEP is gebaseerd op een reeks beoordelingen en andere gegevens om de sterke punten van een kind te beschrijven, zijn behoeften te bepalen en meetbare doelen te stellen. Elk onderdeel van dit proces is afhankelijk van getrainde professionals.

Maar aanhoudend tekort aan arbeidskrachten Dit betekent dat districten vaak moeite hebben met het voltooien van beoordelingen, het bijwerken van plannen en het integreren van de inbreng van ouders. De meeste districten ontwikkelen IEP’s met behulp van software waarbij praktijkmensen moeten kiezen uit een reeks algemene antwoorden of opties, wat leidt tot een hoog niveau van standaardisatie. Het kan zijn dat er niet aan de werkelijke individuele behoeften van het kind wordt voldaan.

Uit voorlopig onderzoek blijkt dat grote taalmodellen als ChatGPT goed in staat zijn sleutels te genereren speciale onderwijsdocumenten zoals een IEP door gebruik te maken van verschillende gegevensbronnen, waaronder informatie van studenten en gezinnen. Chatbots die snel IEP’s kunnen creëren, hebben het potentieel om beoefenaars van speciaal onderwijs te helpen beter tegemoet te komen aan de behoeften van individuele kinderen en hun gezinnen. Sommige beroepsorganisaties op het gebied van speciaal onderwijs hebben er zelfs één onderwijzers aanmoedigen om AI te gebruiken voor documenten zoals lesplannen.

Training en diagnose van handicaps

Er is ook het potentieel dat AI-systemen kunnen helpen bij het ondersteunen van training en professionele ontwikkeling. Mijn eigen werk op personeelsontwikkeling combineert verschillende AI-toepassingen met virtual reality, zodat beoefenaars lesroutines kunnen oefenen voordat ze rechtstreeks met kinderen gaan werken. In dit geval kan AI dienen als een praktische uitbreiding van bestaande trainingsmodellen, door herhaalbare oefeningen en gestructureerde ondersteuning te bieden op een manier die moeilijk vol te houden is met beperkt personeel.

Sommige districten zijn begonnen met het gebruik van AI voor beoordeling, wat een reeks academische, cognitieve en medische evaluaties kan inhouden. Een AI-toepassing die automatische spraakherkenning en taalverwerking koppelt is dat wel nu aan het werk bij computerondersteunde mondelinge leesbeoordelingen om de leesvaardigheidstests van studenten te beoordelen.

Beoefenaars vaak moeite om betekenis te geven uit de hoeveelheid gegevens die door de school wordt verzameld. AI-gedreven machinaal leren Tools kunnen hierbij ook helpen, door patronen te identificeren die mogelijk niet onmiddellijk zichtbaar zijn voor docenten voor evaluatie of leerbeslissingen. Dergelijke ondersteuning kan zeer nuttig zijn bij het diagnosticeren van handicaps zoals autisme of leerstoornissenwaar verborgenheid, variabele presentatie en onvolledige geschiedenis de interpretatie kunnen bemoeilijken. Mijn lopende onderzoek laat zien dat AI nu voorspellingen kan doen op basis van gegevens die mogelijk in sommige districten beschikbaar zijn.

Privacy- en vertrouwenskwesties

Er zijn serieuze ethische – en praktische – vragen over deze AI-aangedreven interventies, variërend van risico’s voor de privacy van studenten tot machinevooroordelen en diepere kwesties die verband houden met het vertrouwen van het gezin. Sommigen draaien om de vraag of AI-systemen diensten kunnen leveren die werkelijk voldoen aan de bestaande wetten.

Dat Onderwijswet voor personen met een handicap vereist dat niet-discriminerende methoden bij de beoordeling van handicaps worden vermeden ten onrechte identificeren studenten voor diensten of negeren naar dienen degenen die in aanmerking komen. En het Wet op de educatieve rechten en privacy van gezinnen beschermt expliciet de privacy van leerlinggegevens en de rechten van ouders om de gegevens van hun kinderen in te zien en op te slaan.

Wat gebeurt er als een AI-systeem bevooroordeelde gegevens of methoden gebruikt om aanbevelingen voor een kind te genereren? Wat als de gegevens van een kind worden misbruikt of gelekt door een AI-systeem? Het gebruik van AI-systemen om enkele van de hierboven beschreven functies uit te voeren, plaatst gezinnen in een positie waarin van hen wordt verwacht dat ze niet alleen hun vertrouwen stellen in schooldistricten en personeel in het speciaal onderwijs, maar ook in commerciële AI-systemen, waarvan de werking grotendeels onduidelijk is.

Deze ethische twijfels zijn dat wel nauwelijks uniek voor het speciaal onderwijs; velen zijn op andere gebieden opgegroeid en behandeld door early adopters. Bij automatische spraakherkenning (ASR) hebben systemen bijvoorbeeld veel moeite met het nauwkeurig beoordelen van Engelse accenten Leveranciers trainen nu hun systemen om tegemoet te komen aan bepaalde etnische en regionale accenten.

Maar lopende onderzoekswerkzaamheden toonde aan dat sommige ASR-systemen een beperkte capaciteit hebben om spraakverschillen die verband houden met handicaps op te vangen, rekening te houden met lawaai in de klas en onderscheid te maken tussen verschillende geluiden. Hoewel deze kwesties in de toekomst door technische verbeteringen kunnen worden aangepakt, zijn ze vandaag de dag nog steeds belangrijk.

Ingebedde vooringenomenheid

Op het eerste gezicht lijken machine learning-modellen superieur aan traditionele klinische besluitvorming. Maar AI-modellen moeten worden getraind op basis van bestaande gegevens, wat betekent dat hun beslissingen waarschijnlijk langetermijnbeslissingen zullen blijven weerspiegelen bevooroordeeld over hoe handicaps worden geïdentificeerd.

Het is waar, onderzoek heeft dat aangetoond AI-systemen worden vaak gehinderd door vooroordelen in trainingsgegevens en systeemontwerp. AI-modellen kunnen ook nieuwe vooroordelen introduceren, hetzij als gevolg van ontbrekende subtiele informatie die aan het licht komt tijdens persoonlijke evaluaties, hetzij door een overrepresentatie van de kenmerken van groepen die in de trainingsgegevens zijn opgenomen.

Zorgen als deze, zeggen mensenrechtenverdedigers, zijn aangepakt door beschermingsmaatregelen die al in de federale wetgeving zijn verankerd. Gezinnen hebben de vrijheid om te bepalen waar ze mee instemmen en kunnen andere alternatieven kiezen, zolang ze zich ervan bewust zijn dat ze dat kunnen doen stuurt het IEP-proces aan.

Op dezelfde manier kan het gebruik van AI-tools om een ​​IEP of cursus te bouwen een duidelijke verbetering lijken ten opzichte van een onderontwikkeld of lukraak plan. Maar echte individualisering vereist het invoegen van beschermde gegevens in grote taalmodellen, die zou kunnen schenden persoonlijk verordening. Hoewel AI-toepassingen gemakkelijk mooiere IEP’s en andere documenten kunnen produceren, resulteren ze niet noodzakelijkerwijs in betere services.

Vul het gat

Het is waar dat het onduidelijk blijft of AI een zorgstandaard biedt die gelijkwaardig is aan de hoogwaardige conventionele zorg waarop kinderen met een handicap volgens de federale wetgeving recht hebben.

Dat Het Hooggerechtshof weigerde dit in 2017 Het idee dat de Onderwijswet voor Personen met een Handicap studenten alleen recht geeft op triviale, ‘de minimis’ vooruitgang ondermijnt een van de belangrijkste redenen voor de implementatie van AI – namelijk dat het kan voldoen aan minimale zorg- en praktijknormen. En omdat AI nog niet echt empirisch op grote schaal is geëvalueerd, is het niet bewezen dat het aan de lage lat kan voldoen om verder te komen dan de gebrekkige status quo.

Dit verandert echter niets aan de realiteit van de beperkte middelen. Ten goede of ten kwade is AI gebruikt om de kloof te dichten tussen wat de wet vereist en wat het systeem feitelijk biedt.

Seth Koning is hoogleraar speciaal onderwijs aan de Universiteit van Amsterdam Universiteit van Iowa.

Dit artikel is opnieuw gepubliceerd van Gesprek onder een Creative Commons-licentie. Lezen origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in