4 AI-trends: in 2022 draait het allemaal om schaal (tot nu toe)

4 AI-trends: in 2022 draait het allemaal om schaal (tot nu toe)

We zijn verheugd om Transform 2022 persoonlijk terug te brengen op 19 juli en vrijwel 20 – 28 juli. Sluit je aan bij AI- en dataleiders voor inzichtelijke gesprekken en spannende netwerkmogelijkheden. Registreer vandaag!


De hitte van juli staat voor de deur, wat ook betekent dat we precies halverwege 2023 zijn. Het lijkt dus een goed moment om even stil te staan ​​en te vragen: wat zijn de grootste AI-trends tot nu toe medio 2022?

De kolossale AI-trend die alle andere AI-trends dienen, is de toegenomen schaal van kunstmatige intelligentie in organisaties, zegt Whit Andrews, vice-president en vooraanstaande analist bij Gartner Research. Dat wil zeggen dat steeds meer bedrijven een tijdperk betreden waarin AI een aspect is van elk nieuw project.

“Als je iets nieuws wilt bedenken, zal het nieuwe dat het meest aantrekkelijk zal zijn, iets zijn dat je kunt doen met geschaalde AI,” zei Andrews. “De menselijke vaardigheden zijn aanwezig, de tools zijn goedkoper en het is nu gemakkelijker om toegang te krijgen tot gegevens die relevant kunnen zijn voor wat je probeert te bereiken.”

Volgens Sameer Maskey, oprichter en CEO van Fusemachines en adjunct universitair hoofddocent aan Columbia University, de stap naar het schalen van AI wordt mogelijk gemaakt door meer data, prioriteit geven aan datastrategie en goedkopere rekenkracht.

“We bevinden ons ook op het punt waar veel ondernemingen nu de waarde van AI zien”, zei hij. “En ze willen het op grote schaal doen”, zei Maskey.

Bovendien wijst Julian Sanchez, directeur van opkomende technologie bij John Deere, erop dat het ding over AI is dat het “als magie lijkt”. Er is een natuurlijke sprong, legde hij uit, van het idee van “kijk wat dit kan doen” naar “ik wil gewoon dat de magie opschaalt.”

AI op schaal is geen magie, het zijn gegevens

“Iedereen probeert erachter te komen hoe we naar het volgende niveau kunnen gaan”, zei Sanchez. Maar de echte reden waarom AI op grote schaal kan worden gebruikt, benadrukte hij, heeft niets te maken met magie. Het komt door gegevens.

“Ik weet dat de enige manier” John Deere is er gekomen was door een rigoureus en uitgebreid proces van gegevensverzameling en gegevensetikettering, “zei hij. “Dus nu moeten we een manier vinden om de juiste gegevens te verzamelen en te implementeren op een manier die niet zo omslachtig is.”

Maar sommige experts benadrukken dat de meeste bedrijven onvolwassen blijven in hun AI-inspanningen – in termen van het hebben van de juiste gegevens, middelen en geletterdheid die nodig zijn om te schalen.

“Ik denk dat er nog steeds een beetje conflict is rond het testen van capaciteit en use cases versus het schalen van AI”, zegt Di Mayze, global head of data and AI bij de holdingmaatschappij WPP. Een klant, voegde ze eraan toe, beschreef hun inspanningen als ‘piloot-palooza’. “Ze proberen manieren te vinden om alle verschillende proeven te koppelen om een ​​geschaalde AI-capaciteit mogelijk te maken, maar bedrijven realiseren zich dat ze hun gegevens op orde moeten hebben voordat ze zich zorgen hoeven te maken over het schalen van AI”, zei ze.

Hier zijn vier AI-trends met betrekking tot schaal die medio 2022 een rage zijn:

Synthetische data biedt snelheid en schaal

Kevin Dunlap, oprichter en managing partner bij het startende durfkapitaalbedrijf Calibrate Ventures, zei dat organisaties synthetische gegevens – gedefinieerd als gegevens die algoritmisch worden gecreëerd in plaats van verzameld via real-world evenementen – om softwareontwikkeling te verbeteren, R&D te versnellen, machine learning-modellen te trainen, hun eigen interne gegevens en producten beter te begrijpen en bedrijfsprocessen te verbeteren.

“Synthetische gegevens kunnen in de plaats komen van echte datasets en worden gebruikt om wiskundige modellen te valideren”, zei hij. “Ik heb bedrijven op gebieden als gezondheidszorg, financiën, verzekeringen, cyberbeveiliging, productie, robotica en autonome voertuigen synthetische gegevens zien gebruiken om de ontwikkeling en time-to-market te versnellen, zodat ze sneller kunnen schalen.”

Om sneller te schalen, voegde hij eraan toe, combineren bedrijven synthetische gegevens met echte gegevens om een ​​beter begrip te krijgen van hun product, go-to-market-strategieën, klanten en operaties, voegde hij eraan toe. Zo gebruiken zorgbedrijven synthetische data om nauwkeurigere diagnoses te stellen zonder de patiëntgegevens in gevaar te brengen, terwijl financiële instellingen het gebruiken om fraude op te sporen.

“Bedrijven kunnen ook een synthetische tweeling van hun eigen gegevens bouwen om blinde vlekken te zien,” zei hij. “GE maakt bijvoorbeeld synthetische tweelingen van gegevens van turbines om technische en mechanische ontwerpen te verbeteren.”

Sanchez van John Deere zei dat hij in 2021 het geklets over synthetische gegevens hoorde, maar nu, dit jaar, heeft hij het gebruik ervan uit de eerste hand gezien. “Onze teams genereren synthetische gegevens en proberen deze te gebruiken om een ​​model te valideren of proberen het zelfs op te nemen in de trainingsdatasets”, zei hij.

In sommige opzichten blijft het gebruik van synthetische gegevens een experiment, waarschuwde hij.

“Het hele punt van het trainen van een AI-algoritme is dat je het een verscheidenheid aan functies laat zien en het laat leren, dus je bent altijd zo voorzichtig om te zeggen, hebben mijn gesimuleerde gegevens vooroordelen die ik niet in mijn algoritme wil hebben? ” Toch zei hij: “Ik heb er dit jaar veel meer van gezien.”

AI-modellen: schaal of buste

Schaal was de afgelopen jaren de naam van het spel in machine learning en deep learning-onderzoek, maar in 2022 blijven steeds grotere modellen het landschap domineren, zegt Melanie Beck, manager research engineering bij softwarebedrijf Cloudera.

“Vanaf de release van OpenAI’s DALL-E 2 model voor het genereren van afbeeldingen naar Google’s LaMDA-conversatieagent, is de sleutel tot hoge prestaties dat grotere modellen zijn getraind op meer gegevens en voor veel langer – en dat vereist enorm meer computerbronnen, “zei ze. “Dit roept de vraag op: hoe kunnen organisaties die misschien niet over de middelen van deze technische giganten beschikken, binnenkomen en in het spel blijven?”

De onderzoeksgemeenschap is het meest verrast door de onverwachte opkomende mogelijkheden die voortkomen uit grootschalige AI-modellen of basismodellen, voegde Nicolas Chapados, vice-president onderzoek bij ServiceNow, toe. Oorspronkelijk gebouwd als grote taalmodellen, worden deze getraind op enorme multimodale datasets die zich zeer snel kunnen aanpassen aan nieuwe “downstream”-taken, soms zonder nieuwe gegevens.

“Deze modellen zijn even goed in dialogen, het beantwoorden van vragen, het beschrijven van afbeeldingen in woorden, het vertalen van tekst naar code en soms het spelen van videogames en het besturen van robotarmen,” zei Chapados.

Wat verrassend is, legde hij uit, is dat deze modellen, meer dan 100 miljard parameters, opkomend gedrag vertonen dat ontwerpers niet hadden verwacht, zoals het vermogen om een ​​stapsgewijze uitleg te geven in een vraag-beantwoordende situatie, gegeven de juiste ” prompting” aan het model verstrekt.

“De grootste uitdagingen in 2022 zijn voor organisaties om te begrijpen welke use-cases – vooral in de bedrijfswereld – echt profiteren van deze schaal, hoe deze capaciteiten succesvol en winstgevend te operationaliseren, en hoe ze andere remmers kunnen beheren, zoals toegang tot geschikte en voldoende gegevens en veiligheidsrisico’s zoals mogelijke modeltoxiciteit, “voegde hij eraan toe.

MLops in opkomst

Kavita Ganesan, oprichter van Opinosis Analytics en auteur van: De businesscase voor AIgezegd dat een van de problemen waarmee bedrijven in het verleden te maken hebben gehad, het schalen van het aantal ingezette modellen is.

“Elke keer dat een nieuw model wordt ontwikkeld, heeft het vaak zijn eigen implementatievereisten, wat wrijving toevoegt aan elke ontwikkelings- en implementatiecyclus”, zei Ganesan. “Dit heeft geleid tot een vertraging van veel machine learning-initiatieven, en sommige moesten zelfs worden opgeschort vanwege het werk dat bij elke implementatiecyclus betrokken was.”

Dat verandert langzaam met het groeiend aantal MLops-platforms, legt ze uit, waarmee organisaties modellen kunnen ontwikkelen, implementeren, integreren en monitoren.

“Nog beter, met sommige van deze platforms kun je computerbronnen en andere infrastructuurvereisten automatisch schalen, waardoor de implementatie van machine learning-modellen voor zakelijke use-cases minder pijnlijk en herhaalbaar is”, legt ze uit. “Specifieke leveranciers stellen bedrijven ook in staat om on-premise of cloudbronnen te gebruiken, afhankelijk van de behoeften.”

John Deere’s Sanchez voegde toe dat de huidige oogst van betrouwbare, in de handel verkrijgbare MLops-platforms een grote verschuiving is ten opzichte van drie jaar geleden, die “bijna als systemen van eigen bodem” waren. Maar, zei hij, ze zijn ook een tweesnijdend zwaard.

“Nu kan ik een goede softwareontwikkelaar nemen en zodra ze enkele van de beschikbare tools leren, kunnen ze zich snel gedragen als een ervaren AI-ontwikkelaar”, zei Sanchez. “Maar soms besluiten ze om die tools te gebruiken terwijl ze iets anders zouden moeten proberen – vaak kan het je een oplossing bieden en weten ze niet precies waarom het werkt of hoe het werkt.”

AI op een verantwoorde manier schalen

Van Microsoft’s recente zetten in de richting van “verantwoorde AI” voor bedrijven die de kwestie van AI-veiligheiddiscussie over hoe AI op een verantwoorde manier kan worden geschaald – dat wil zeggen ethisch en zonder vooroordelen – is overal in 2022.

Mayze van WPP wees erop dat bedrijven zich bewust moeten zijn van wat ze van de machines vragen en dat ze volledig moeten nagaan of de KPI’s correct zijn.

“Als je bijvoorbeeld de omzet per klant probeert te optimaliseren, zal AI manieren vinden om dit te doen die er in het koude daglicht misschien niet zo ethisch uitzien,” zei Mayze. “Dus het creëren van een omgeving waarin mensen de onbedoelde gevolgen van AI-gebruik kunnen onderzoeken en de grenzen van elke organisatie kunnen vaststellen, is belangrijk.”

Het toepassen van de principes van verantwoorde AI – zoals transparantie en verklaarbaarheid – kan echter een gemakkelijk antwoord zijn op maatschappelijke zorgen over hoe bedrijven AI kunnen gebruiken, maar het is niet voldoende, zegt François Candelon, wereldwijd directeur van het BCG Henderson Institute.

“Het is een goede en noodzakelijke start, maar ik geloof dat bedrijven verder moeten gaan dan alleen verantwoordelijkheid nemen en een echt sociaal contract met hun klanten moeten ontwikkelen op basis van dialoog, vertrouwen en een transparante kosten-batenanalyse van AI-impact om te verdienen wat ik hun ‘sociale licentie‘ – een vorm van acceptatie die bedrijven moeten verkrijgen door consistent en betrouwbaar gedrag en interacties met belanghebbenden”, aldus Candelon.

AI op schaal betekent aanpassen aan verandering

Het maakt niet uit hoe organisaties komend jaar op weg zijn naar het schalen van AI, het is belangrijk om de significante verschillen te begrijpen tussen het gebruik van AI als een ‘proof of concept’ en het opschalen van die inspanningen, zegt Bret Greenstein, data, analytics en AI-partner bij PwC.

“Het verschil is tussen het maken van een goede sandwich en het openen van een succesvol restaurant,” zei Greenstein. “Je moet nadenken over alle dingen die beschikbaar moeten zijn wanneer je ze nodig hebt, ervoor zorgen dat dingen in de vorm zijn die je nodig hebt om nuttig te zijn en ervoor zorgen dat je je systemen kunt aanpassen aan veranderingen.”

Een geschaalde AI-oplossing moet bijvoorbeeld nieuwe gegevens als een pijplijn krijgen, niet alleen een momentopname van gegevens. En hoewel proof of concept onvolledige gegevens of slechte gegevens kan tolereren, omdat het niet bedrijfskritisch is, is gegevensvoorbereiding voor AI-systemen nog steeds 80-90% van het werk dat nodig is om AI succesvol te maken. Veranderende omstandigheden kunnen ernstige gevolgen hebben voor modellen in productie. In geschaalde product-AI-systemen worden modellen opnieuw getraind als gegevens veranderen en wordt de nauwkeurigheid gecontroleerd als de omstandigheden veranderen.

“De belangrijkste les in dit alles is om AI te zien als een op leren gebaseerd systeem”, zei Greenstein. “Mensen moeten blijven leren met de nieuwste gegevens en op de hoogte zijn van veranderingen, zodat ze die kennis kunnen toepassen om vandaag nauwkeurige beslissingen te nemen.”

Voor John Deere draait het schalen van AI om het werken met grote datasets om modellen te trainen, waardoor de organisatie een belangrijk perspectief op verandering krijgt.

“Iemand die nieuw binnenkomt, zou kunnen zeggen: “Er is een hulpmiddel en ik kan dit ding een keer doen en het is magie”, voegde Sanchez eraan toe. “Maar wanneer je oplossingen in een product schaalt, is het niet alleen maar eenmalige magie – je moet begrijpen hoe dat product in de echte wereld wordt gebruikt en in alle verschillende hoeksituaties.”

Het is duidelijk dat de huidige AI-trends van 2022 aangeven hoe AI op grotere schaal binnen een organisatie nuttig wordt, zegt Gartner-analist Andrews.

“Meer mensen kunnen het gebruiken, ze kunnen dingen bereiken die ze nooit eerder hadden kunnen bereiken,” zei Andrews. “Dus de grote AI-trend in 2022 is dat elke keer dat we iets nieuws doen, AI er deel van uitmaakt.”

De missie van VentureBeat is een digitaal stadsplein voor technische besluitvormers om kennis op te doen over transformatieve bedrijfstechnologie en transacties. Leer meer over lidmaatschap.