Home Nieuws Wat maakt Quantum Machine Learning ‘Quantum’?

Wat maakt Quantum Machine Learning ‘Quantum’?

6
0
Wat maakt Quantum Machine Learning ‘Quantum’?

Ik telde 7 jaar geleden, vlak na mijn masteropleiding. Destijds was het veld vol opwinding, maar ook sceptisch. Tegenwoordig onderscheidt quantum computing zich als een opkomende technologie, samen met HPC en AI.

De aandacht verschuift van onderzoek en discussies die alleen over hardware gaan, naar applicaties, software en algoritmen. Quantum is echt een tool die in meerdere disciplines kan worden gebruikt, niet in geïsoleerde velden. Een veelbelovend maar nog steeds niet volledig begrepen gebruik van kwantumcomputers is kwantummachine learning.

Quantum Machine Learning (QML) is de laatste jaren een veelgebruikte term geworden. Een van de eerste en belangrijkste verschijningen van QML vond plaats in 2013, toen Google en NASA het Quantum Artificial Intelligence Lab oprichtten, met de taak te onderzoeken hoe kwantumcomputers kunnen worden gebruikt in machine learning-toepassingen. Sindsdien is de term QML verschenen in onderzoekspapers, startup-presentaties en conferentietoespraken, vaak met heel verschillende betekenissen.

In sommige gevallen verwijst dit naar het gebruik van kwantumcomputers om machinaal leren te versnellen. Aan de andere kant beschrijft het klassieke algoritmen geïnspireerd door de kwantumfysica. En soms betekent dit dat u bekende ML-workflows moet uitvoeren op onbekende hardware.

Dus zelfs ik, iemand die werkt aan en onderzoek doet naar kwantumcomputers, voelde me in eerste instantie erg in de war… Ik weet zeker dat de eerste vraag van veel mensen wanneer ze ‘Quantum Machine Learning’ horen, is wat kwantummachine learning precies tot een succes maakt. quantum?

Het beantwoorden van deze vraag is de reden dat ik besloot dit artikel te schrijven! Het korte antwoord is niet snelheid, noch neurale netwerken, noch vage verwijzingen naar ‘kwantumsuperioriteit’. In de kern wordt quantum machine learning gedefinieerd door de manier waarop informatie wordt weergegeven, getransformeerd en uitgelezen. In QML gebeurt dit met behulp van de regels van de kwantummechanica, en niet met behulp van klassiek computergebruik.

Dit artikel heeft tot doel deze verschillen te verduidelijken, de inhoud van de hype te scheiden en een zuivere conceptuele basis te bieden voor de rest van de serie. Ik ben van plan te schrijven over de verkenning van QML-kennis, evenals enkele onderzoeksresultaten en kortetermijntoepassingen.

Machine learning vóór ‘Quantum’

Voordat we het hele kwantumgedoe begrijpen, moeten we eerst een stapje terug doen. Ondanks de moderne mogelijkheden gaat machine learning over het leren van de mapping van input naar output met behulp van data. Ongeacht of het model een lineaire regressie, een kernelmethode of een diep neuraal netwerk is, de structuur ervan is min of meer hetzelfde:

  1. Gegevens worden numeriek weergegeven (vectoren, matrices, tensoren).
  2. Geparametriseerde modellen transformeren die gegevens.
  3. De parameters worden aangepast door de kostenfunctie te optimaliseren.
  4. Het model wordt statistisch geëvalueerd op een nieuw monster.

Neurale netwerken, GPU’s en grote datasets zijn implementatiekeuzes en geen bepalende kenmerken. Deze abstractie is belangrijk omdat ze ons in staat stelt de juiste vragen te stellen:

Wat veranderde wanneer data en modellen leven in de kwantumruimte?

Voer de kwantummechanica in

Kwantummachine learning wordt kwantum wanneer kwantuminformatie het computationele substraat wordt. Dit wordt op drie manieren gezien.

1. Gegevens worden weergegeven als een kwantumtoestand.

In klassieke machine learning-modellen worden gegevens weergegeven als bits of drijvende-kommagetallen. Quantum machine learning maakt daarentegen gebruik van kwantumtoestanden, dit zijn complexe vectoren die de regels van de kwantummechanica volgen. Deze toestand wordt vaak beschreven door een dichtheidsmatrix, en de transformatie ervan wordt weergegeven door een unitaire matrix.

Als gevolg hiervan coderen we informatie in amplitudes met complexe waarden, en niet in waarschijnlijkheden, en kunnen toestanden zich in superpositie bevinden.

Dit is waar Nee wat betekent dat alle klassieke gegevens plotseling exponentieel gecomprimeerd of gemakkelijk toegankelijk worden. Het laden van gegevens in kwantumtoestanden is vaak kostbaar, en het extraheren van informatie uit die toestanden wordt inherent beperkt door metingen.

Het belangrijke punt is dus dat het model op kwantumtoestanden werkt, en niet op klassieke getallen.

2. Het model is kwantumevolutie

Klassieke ML-modellen passen functies toe op gegevens. Quantum ML-modellen passen kwantumbewerkingen (meestal unitaire transformaties) toe op kwantumkanalen. In de praktijk worden veel QML-modellen opgebouwd uit geparametriseerde kwantumcircuits. Dit circuit is een circuit van kwantumpoorten, dit zijn basisbewerkingen die kwantumtoestanden veranderen. De parameters van deze kwantumpoorten worden tijdens de training afgestemd, vergelijkbaar met de aanpassing van gewichten in een neuraal netwerk bij klassiek machinaal leren.

Wat er feitelijk in dit model gebeurt, is dat we beginnen met de toestand van het systeem, weergegeven in een matrix (we noemen het een Hamiltoniaan, om precies te zijn), en dat de poorten die we op het systeem toepassen ons vertellen hoe het systeem over een bepaalde tijdsperiode evolueert (veranderingen). Deze evolutie bepaalt het gedrag van het model.

Als gevolg hiervan onderzoeken kwantummodellen een hypotheseruimte die structureel verschilt van klassieke modellen, ook al lijken de trainingslussen op het eerste gezicht vergelijkbaar.

3. Meten is onderdeel van het leerproces

In klassieke ML is het lezen van modeluitvoer triviaal en heeft het op geen enkele manier invloed op de toestand of het gedrag van het model (tenzij we dit opzettelijk doen). In quantum ML zijn metingen echter probabilistisch en destructief voor de staat. Dit heeft een aanzienlijke impact op het systeem. De output wordt bepaald door de uitvoering van herhaalde reeksen, ‘shots’ genoemd. Hier betekent ‘schot’ dat je hetzelfde kwantumcircuit verschillende keren moet laten draaien om een ​​uitkomst te schatten, omdat kwantummetingen probabilistisch zijn.

De gradiënten (die parameterupdates tijdens de training begeleiden) worden statistisch geschat op basis van deze metingen, in plaats van precies te worden berekend zoals bij klassiek machinaal leren. Als gevolg hiervan worden de trainingskosten vaak gedomineerd door de bemonsteringsruis van deze herhaalde metingen, in plaats van alleen door berekeningen.

Met andere woorden: de onzekerheid is ingebed in het model zelf. Bij elke serieuze discussie over QML moet rekening worden gehouden met het feit dat leren plaatsvindt door meting, niet erna.

Wat doet het Nee Maak QML Quantum

Vooral kwantumcomputing en QML zorgen voor hype en misverstanden. Veel dingen die tegenwoordig ‘kwantummachine learning’ worden genoemd, zijn alleen kwantum in naam, bijvoorbeeld:

  • Klassieke ML-algoritmen draaien op kwantumhardware zonder betekenisvol gebruik te maken van kwantumtoestanden.
  • Een volledig klassieke “kwantum-geïnspireerde” methode.
  • Een hybride pijplijn waarin de kwantumcomponent kan worden verwijderd zonder het gedrag of de prestaties van het model te veranderen.

Als je ooit iemand tegenkomt die over QML praat en je weet niet zeker hoe kwantum het model is dat hij/zij bespreekt, is het een goede vuistregel om te vragen:

“Kan ik het kwantumdeel vervangen door het klassieke deel zonder de wiskundige structuur van het model te veranderen?”

Als dat zo is of als het mogelijk is, dan is de aanpak wellicht niet fundamenteel kwantum. Dit werk kan nog steeds waardevol zijn, maar valt buiten de kern van quantum machine learning.

Waar is QML vandaag?

Houd er bij het bespreken van quantum computing rekening mee dat de huidige hardware luidruchtig, klein en beperkt in middelen is. Vanwege dit:

  • Momenteel is er geen bewezen algemeen kwantumvoordeel voor machine learning-taken.
  • Veel QML-modellen lijken meer op kernelmethoden dan op diepe netwerken.
  • Het laden van gegevens en onderbrekingen domineren vaak de prestaties.

Dit is geen veldfout; dat is waar quantum computing momenteel staat. Het meeste huidige QML-onderzoek is verkennend: het in kaart brengen van klassen van modellen, het begrijpen van de kwantumleertheorie en het identificeren van waar de kwantumstructuur van belang is.

Waarom Quantum Machine Learning nog steeds de moeite waard is om te leren

Als versnelling op de korte termijn onmogelijk is, waarom zou u dan QML gebruiken?

QML dwingt ons om fundamentele vragen over machine learning en quantum computing te heroverwegen. We moeten een antwoord geven op wat het betekent om van kwantumgegevens te leren, hoe ruis de optimalisatie beïnvloedt, en welke klassen modellen er wel bestaan ​​in kwantumsystemen, maar niet in klassieke systemen.

Kwantummachine learning gaat niet over het beter presteren dan de huidige klassieke ML, maar eerder over het vergroten van de ruimte van wat ‘leren’ betekent in de kwantumwereld.

Dit is belangrijk omdat wetenschappelijke en technologische vooruitgang begint met een nieuwe aanpak. Ook al is de hardware nog niet klaar, het verkennen van QML bereidt ons voor op betere hardware in de toekomst.

Laatste gedachten en wat er daarna gebeurt

De vooruitgang op het gebied van quantum computing versnelt. Hardwarebedrijven racen om fouttolerante kwantumcomputers te bouwen. Een kwantumcomputer die de volledige kracht van de kwantummechanica benut. Software- en applicatiebedrijven onderzoeken problemen die kunnen worden opgelost met quantum computing.

Desondanks zijn de huidige kwantumcomputers niet in staat om levensgrote applicaties uit te voeren, laat staan ​​complexe machine learning-modellen. De potentiële efficiëntie van quantum computing bij machinaal leren is echter behoorlijk interessant en de moeite waard om te onderzoeken nu de hardware zich verder ontwikkelt.

In dit artikel concentreer ik me op de definitie en beperkingen van quantum machine learning om de weg vrij te maken voor toekomstige artikelen over:

  • Hoe klassieke data in een kwantumtoestand worden gebracht.
  • Variationele kwantummodellen en hun beperkingen.
  • Kwantumkernels en featureruimten.
  • Optimalisatie-uitdagingen in luidruchtige kwantumsystemen.
  • Waar plausibel een kwantumvoordeel zou kunnen ontstaan.

Voordat we ons afvragen of quantum machine learning nuttig is, moeten we begrijpen wat quantum machine learning eigenlijk is. Hoe meer we ons verwijderen van de hype, hoe dichter we bij vooruitgang komen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in