Home Nieuws Je moet nog steeds leren coderen, zegt de topman van Google AI...

Je moet nog steeds leren coderen, zegt de topman van Google AI – en dit is waarom

20
0
Je moet nog steeds leren coderen, zegt de topman van Google AI – en dit is waarom

Joe Jenkins

Volg ZDNET: Voeg ons toe als voorkeursbron op Google.


Kernpunten van ZDNET

  • AI Dev, de AI-conferentie van DeepLearning.ai, debuteert in New York.
  • We spraken met Andrew Ng tijdens het evenement om over AI en ontwikkelaars te praten.
  • Ng raadt iedereen aan te leren coderen.

De tweede jaarlijkse AI Dev, een top over alles wat met AI en software te maken heeft, georganiseerd door DeepLearning.ai van Andrew Ng, werd vrijdag gehouden in New York. In verschillende panels en interviews met ZDNET gaf de oprichter van Google Brain advies over de toekomst van het vakgebied.

AI wordt voor veel ontwikkelaars in snel tempo een krachtige codeerassistent – ​​zozeer zelfs dat velen zich afvragen wat de toekomst van het hele beroep is. Het aantal codeerbanen op instapniveau neemt af voor pas afgestudeerden, omdat teams juniortaken overdragen aan AI-assistenten; Tegelijkertijd noemen experts de echte beperkingen van deze tools als bewijs dat ingenieurs nooit uit de mode zullen raken.

Bovendien: Google’s Antigravity stelt de codeerproductiviteit boven de AI-hype – en de resultaten zijn verbluffend

Dit is wat Ng te zeggen had over hoe we door deze onzekere toekomst moeten navigeren, waarom iedereen zou moeten leren coderen en hoe bestuur eigenlijk zou moeten worden gedaan.

Codering is nog steeds belangrijk – een soort van

“Aangezien AI-codering de lat voor toegang heeft verlaagd, hoop ik dat we iedereen kunnen aanmoedigen om te leren coderen – en niet alleen software-ingenieurs”, zei Ng terwijl hij de lezing hield.

Hoe AI de werkgelegenheid en de toekomst van werk zal beïnvloeden, valt nog te bezien. Hoe dan ook, Ng vertelde ZDNET in een interview dat hij vindt dat iedereen de basis moet kennen van het gebruik van AI om te coderen, wat het equivalent is van “een beetje wiskunde” kennen – wat nog steeds een moeilijke vaardigheid is, maar algemener kan worden toegepast op veel carrières voor alles wat je nodig hebt.

Ook: waarom AI-codeertools zoals Cursor en Replit falen – en wat er daarna gebeurt

“Een van de belangrijkste vaardigheden van de toekomst zal het vermogen zijn om een ​​computer te vertellen wat je wilt dat hij voor je doet”, zei hij, waarbij hij benadrukte dat iedereen genoeg moet weten om de taal van computers te spreken, zonder zelf code te hoeven schrijven. “De syntaxis, de geheimzinnige spreuk die we gebruiken, is minder belangrijk.”

Hij voegde eraan toe dat hij sfeermakers wilde verwelkomen als leden van de community, ook al waren ze technisch gezien geen ontwikkelaars. Maar hij had ook niet verwacht dat het gemakkelijk zou zijn. Ondanks dat hij opmerkte dat “het heel duidelijk was dat de code geschreven moest worden met een AI-assistent”, gaf Ng toe dat vibratiecodering – die hij liever “AI-codering” noemt – hem “mentaal uitgeput” maakte.

Word een generalist

In zijn presentatie merkte Ng op dat, omdat AI de softwareontwikkeling zo snel heeft gemaakt, productbeheer – en niet het maken van prototypes – het langzame punt is bij de lancering van nieuwe producten. Om de door AI ondersteunde snelheid te behouden, raadt hij aan dat ingenieurs een aantal vaardigheden op het gebied van productmanagement leren om deze knelpunten te vermijden.

“Ingenieurs die een bepaald productwerk leren, kunnen echt een team vormen”, zei hij.

Ook: wat Bill Gates echt zei over AI die codeertaken vervangt

Het thema dat alle professionals – en niet alleen ontwikkelaars – generalisten worden, kwam tijdens de top weer terug. In een panel over de ontwikkeling in het AI-tijdperk merkte Fabian Hedin, CTO bij codeerplatform Lovable – een van de underdog-startups op de nieuwste lijst van a16z – op dat vibratiecodering mensen met diepgaande kennis van niet-softwareonderwerpen in staat kan stellen “sneller dan ooit te itereren” met behulp van codeervaardigheden. Moderator Laurence Moroney, directeur van AI bij Arm, zei dat dit gebruik zou kunnen maken van traditioneel op zichzelf staande experts, een verandering in de manier waarop gespecialiseerde vaardigheden op de werkplek functioneren.

De nieuwe uitdaging voor ontwikkelaars, zei Ng tijdens het panel, is het bedenken van de concepten die ze willen. Hedin was het daarmee eens en voegde eraan toe dat als AI in de toekomst codeert, ontwikkelaars zich moeten concentreren op hun intuïtie bij het maken van producten of tools.

“Het ergste aan AI is het begrijpen van mensen”, zei hij.

Waarom computerwetenschappen graden studenten niet dienen

De realiteit van coderen in het AI-tijdperk begint gevolgen te krijgen voor afgestudeerde studenten die moeite hebben met het vinden van een baan. Computerwetenschappen, ooit beschouwd als een waterdichte studie die een lucratieve carrière garandeerde, laat zijn studenten nu in de steek, vertelde Ng aan ZDNET.

Hij noemde de overwerving – en de uiteindelijke omkering – tijdens de COVID-19-pandemie van technologiebedrijven als een belangrijke reden waarom codeerbanen op instapniveau moeilijk te vinden zijn. Maar verder is het de vraag of afgestudeerden over de juiste codeervaardigheden beschikken.

“AI heeft de manier veranderd waarop code wordt geschreven, maar eerlijk gezegd zijn veel universiteiten traag in het aanpassen van hun curriculum,” zei hij. “Dus als een universiteit haar curriculum vanaf 2022 niet significant verandert, heeft de universiteit haar afgestudeerden niet voorbereid op de arbeidsmarkt van vandaag.”

Bovendien: AI zal de komende jaren ‘werkgelegenheidchaos’ veroorzaken, zegt Gartner – wat betekent dat

Ng zei dat hij het als “wanpraktijken” beschouwt als universiteiten Computerwetenschappen-graden toekennen zonder studenten te leren hoe ze het werk met AI-assistenten kunnen optimaliseren.

“Ik vind het echt jammer dat er vandaag de dag nog steeds mensen zijn die een bachelordiploma in computerwetenschappen hebben behaald, maar nog geen API-aanroepen hebben gedaan naar een enkel AI-model”, zei hij. Volgens hem zou het heroriënteren van computerwetenschappen op die realiteit de kloof overbruggen tussen slecht voorbereide afgestudeerden en de behoefte aan programmeurs met ervaring met AI. “Voor nieuwe studenten die deze vaardigheden kennen, zullen we er niet genoeg van vinden”, zei Ng, een zorg die hij eerder dit najaar ook opmerkte in een X-post.

De angst van mensen voor AI

In zijn keynote speech erkende Ng dat “AI de harten en geesten van Amerika nog niet heeft veroverd”, verwijzend naar de vaak verspreide publieke perceptie van de ergste gevolgen die AI kan hebben. Verschillende panelleden vroegen de honderden aanwezige ontwikkelaars om die perceptie te veranderen.

dsc-2491
Joe Jenkins

“Je hebt een uniek inzicht in wat AI niet is”, zegt Miriam Vogel, president en CEO van Equal AI. Hij drong er bij ontwikkelaars op aan om de angst van de samenleving voor de technologie niet te negeren, maar actief deel te nemen aan AI-geletterdheid, en voegde eraan toe dat “we zullen falen” als het sentiment niet verbetert.

Ng is van mening dat derde partijen tot nu toe opzettelijk de angst voor AI verspreiden.

“Ik denk dat de meeste angst voor AI wordt veroorzaakt door een handvol bedrijven die, eerlijk gezegd, PR-campagnes voeren om mensen bang te maken voor AI, vaak om te lobbyen”, vertelde hij tijdens ons interview aan ZDNET. “Ik denk dat dit veel schade heeft aangericht aan het AI-veld en het leiderschap van ontwikkelaars in Amerika.”

Ook: Google Gemini 3 is eindelijk hier en het is slimmer, sneller en gratis toegankelijk

Op de vraag hoe ontwikkelaars daar invloed op kunnen uitoefenen, zei hij dat hij wil dat ze eerlijke gesprekken voeren over wat werkt en wat niet. “Als de samenleving het beter zou begrijpen, zouden we allemaal tot rationelere conclusies over technologie kunnen komen”, zei hij.

Een groot deel van de angst komt voort uit AGI, een soort obscure intelligentie op menselijk niveau waar OpenAI en Microsoft, evenals andere laboratoria, zich met toenemende intensiteit op richten. Ng heeft lang betoogd dat dergelijke projecties overdreven zijn.

“Als je kijkt naar de ongelooflijk rommelige trainingsrecepten die betrokken zijn bij het trainen van deze AI-modellen, is dit absoluut geen AGI – als je met AGI elke intellectuele taak bedoelt die mensen doen”, vertelde Ng aan ZDNET. “Eerlijk gezegd zit het grootste deel van die kennis nog steeds in deze systemen, met hele slimme mensen, met veel data.”

Veiligheid en bestuur

In het panelgesprek erkende Ng dat het publiek niet echt weet wat AI-laboratoria doen, wat paniek kan veroorzaken, maar drong er bij het publiek op aan om “geen red team-oefening te doen en er een mediasensatie van te maken.” Ng voegde eraan toe dat hij minder voorstander was van Anthropic’s merk van veiligheid en bestuur, dat hij enigszins beperkend vond. In plaats van de bestuursinspanningen te beperken, benadrukt hij ‘gegarandeerd veilige’ sandbox-omgevingen als een weg naar verantwoorde, ongehinderde AI.

Vogel definieert governance als ‘het opsplitsen van principes in uitvoerbare workflows’, en niet het creëren van bureaucratie. Het gaat niet om hyperscalers als OpenAI en Meta, maar om kleine AI-bedrijven die al pionieren voordat ze enige bestuursstructuur hebben ontwikkeld.

AI instellen

“Je kunt op het gebied van AI geen leiding geven door regelgeving goed te keuren”, zei Ng in het panel, sprekend over de EU-aanpak van AI-wetgeving. Hij prees het AI-actieplan van de Trump-regering, dat afgelopen zomer werd uitgebracht, voor het soepel houden van de federale regelgeving.

Veel AI-experts maken zich zorgen over het gebrek aan AI-regulering in de VS. Sommigen zien het onvermogen van de federale overheid om sociale-mediaplatforms te reguleren terwijl deze zich verspreiden als een voorbeeld van wat er zou kunnen gebeuren als AI de wetgeving blijft overtreffen. Ng vertelde ZDNET dat hij denkt dat het een valse gelijkwaardigheid is.

Ook: 8 manieren om verantwoorde AI onderdeel te maken van het DNA van uw bedrijf

“Ik zie veel meer slechte regelgevingsvoorstellen dan goede”, zei Ng in het interview, eraan toevoegend dat hij het verbod op deepfakes zonder wederzijdse toestemming en de acties van de FTC tegen bedrijven die AI gebruiken om “misleidend of oneerlijk gedrag” te bevorderen als voorbeelden van goed AI-beleid ziet.

Toen hem werd gevraagd of er nog andere regelgeving was die hij op federaal niveau zou creëren, zei hij dat hij meer transparantie-eisen wilde voor grote AI-bedrijven.

“Toen er slechte dingen gebeurden op sociale media, wist niemand van ons ervan. Zelfs mensen in het bedrijf wisten er niets van”, vertelde Ng aan ZDNET. “Als we regelgeving hebben die de grootste bedrijven verplicht – alleen de grote bedrijven, zodat we kleine startups geen onredelijke nalevingslast opleggen – maar als we een bepaald niveau van transparantie eisen van bedrijven met zeer grote aantallen gebruikers, zou dat ons een beter signaal kunnen geven om het echte probleem te vinden, in plaats van te vertrouwen op geluk als er klokkenluiders zijn.”



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in