5 manieren waarop ChatGPT enterprise search in 2023 kan vormgeven

Sluit je aan bij topmanagers in San Francisco op 11 en 12 juli om te horen hoe leiders AI-investeringen integreren en optimaliseren voor succes. Kom meer te weten


Het zijn een paar spannende maanden geweest sinds OpenAI ChatGPT uitbracht, waar nu iedereen over praat, velen tegen praten en alle ogen gericht zijn op de toekomst.

Het is niet verwonderlijk. ChatGPT de lat hoger gelegd voor waartoe computers in staat zijn en is een venster op wat er mogelijk is met AI. En nu techreuzen Microsoft, Google en nu Meta meedoen aan de race, moeten we ons allemaal vastklampen aan een opwindende maar mogelijk hobbelige rit.

Kern van deze mogelijkheden zijn grote taalmodellen (LLM’s) – met name een bepaalde generatieve LLM die ChatGPT mogelijk maakt. LLM’s zijn niet nieuw, maar de snelheid van innovatie, mogelijkheden en reikwijdte evolueren en versnellen met een verbluffende snelheid.

Een kijkje achter het AI-gordijn

Er gebeurt ook veel “achter het gordijn” dat tot verwarring heeft geleid, en sommigen hebben ChatGPT ten onrechte gekarakteriseerd als een Google-killer, of dat generatieve AI de zoekfunctie zal vervangen. In tegendeel.

Evenement

Transformeer 2023

Bezoek ons ​​op 11 en 12 juli in San Francisco, waar topmanagers zullen vertellen hoe ze AI-investeringen hebben geïntegreerd en geoptimaliseerd voor succes en hoe ze veelvoorkomende valkuilen hebben vermeden.

Registreer nu

Ten eerste is het belangrijk om onderscheid te maken tussen zoeken en generatieve AI. Het doel van zoeken is het ophalen van informatie: iets opduiken dat al bestaat. Generatieve AI en applicaties zoals ChatGPT zijn generatief en creëren iets nieuws op basis van waar de LLM op is getraind.

ChatGPT voelt een beetje aan als zoeken, omdat je ermee bezig bent via conversatievragen in natuurlijke taal en het antwoordt met goed geschreven proza ​​en een zeer zelfverzekerd antwoord. Maar in tegenstelling tot zoeken, haalt ChatGPT geen informatie of inhoud op; in plaats daarvan creëert het een onvolmaakte weerspiegeling van het materiaal dat het al kent (waarop het is getraind). Het is eigenlijk niets meer dan een mengelmoes van woorden gecreëerd op basis van waarschijnlijkheden.

Hoewel LLM’s het zoeken niet vervangen, kunnen ze een zoekervaring aanvullen. De echte kracht van het toepassen van generatieve LLM’s op zoeken is gemak: de resultaten samenvatten in een beknopt, gemakkelijk leesbaar formaat. Het bundelen van generatieve LLM’s met zoeken zal de deur openen voor nieuwe mogelijkheden.

Zoek een testterrein voor AI en LLM’s

generatieve modellen gebaseerd op LLM’s zijn er om te blijven en zullen een revolutie teweegbrengen in de manier waarop we veel dingen doen. Het laaghangende fruit van tegenwoordig is synthese: lijsten samenstellen en samenvattingen schrijven voor veelvoorkomende onderwerpen. De meeste van die mogelijkheden zijn niet gecategoriseerd als zoeken. Maar de zoekervaring zal worden getransformeerd en versplinterd gespecialiseerde LLM’s die aan specifieke behoeften voldoen.

Dus, temidden van de opwinding van generatieve AI, LLM’s en ChatGPT, is er één overheersend punt: zoeken wordt een testterrein voor AI en LLM’s. Dit geldt met name voor enterprise search. In tegenstelling tot B2C-applicaties, zullen B2B- en in-business-applicaties een veel lagere tolerantie hebben voor onnauwkeurigheid en een veel grotere behoefte aan bescherming van eigendomsinformatie. De acceptatie van generatieve AI in bedrijfszoekopdrachten zal achterblijven bij die van internetzoekopdrachten en vereist creatieve benaderingen om de speciale uitdagingen van het bedrijfsleven aan te gaan.

Wat houdt 2023 daarom in voor enterprise search? Hier zijn vijf thema’s die de toekomst van enterprise search in het komende jaar bepalen.

LLM’s verbeteren de zoekervaring

Tot voor kort was het toepassen van LLM’s om te zoeken een kostbare en omslachtige aangelegenheid. Dat veranderde vorig jaar toen de eerste bedrijven zich gingen vestigen LLM’s in enterprise search. Dit zorgde voor de eerste grote sprong voorwaarts in zoektechnologie in decennia, wat resulteerde in zoeken dat sneller, gerichter en vergevingsgezinder is. Toch staan ​​we nog maar aan het begin.

Naarmate er betere LLM’s beschikbaar komen en bestaande LLM’s worden verfijnd om specifieke taken uit te voeren, kunnen we dit jaar een snelle verbetering verwachten in de kracht en het vermogen van deze modellen. Het gaat niet langer om het vinden van een document; we zullen een specifiek antwoord in een document kunnen vinden. We hoeven niet langer precies het juiste woord te gebruiken, maar informatie wordt opgehaald op basis van betekenis.

LLM’s zullen beter werk leveren door de meest relevante inhoud naar boven te halen, wat ons meer gerichte resultaten oplevert, en dit in natuurlijke taal. En generatieve LLM’s zijn veelbelovend voor het synthetiseren van zoekresultaten in gemakkelijk verteerbare en gemakkelijk te begrijpen samenvattingen.

Zoeken helpt kennisverlies tegen te gaan

Organisatorisch kennisverlies is een van de ernstigste maar te weinig gerapporteerde problemen waarmee bedrijven tegenwoordig worden geconfronteerd. Een hoog personeelsverloop, of het nu gaat om vrijwillig verloop, ontslagen, M&A-herstructureringen of inkrimpingen, zorgt er vaak voor dat kennis op informatie-eilanden strandt. Dit heeft, in combinatie met de verschuiving naar werken op afstand en hybride werk, ingrijpende veranderingen in de perceptie van klanten en werknemers en een explosie van ongestructureerde gegevens en digitale inhoud, een enorme druk gelegd op kennisbeheer.

In een recente enquête van de 1.000 IT-managers bij grote ondernemingen zei 67% zich zorgen te maken over het verlies van kennis en expertise wanneer mensen het bedrijf verlaten. En die kosten van kennisverlies en inefficiënte kennisdeling zijn hoog. IDC schat dat Fortune 500-bedrijven ruwweg verliezen 31,5 miljard dollar per jaar door het niet delen van kennis – een alarmerend cijfer, zeker in de huidige onzekere economie. Het verbeteren van tools voor het zoeken en ophalen van informatie voor een Fortune 500-bedrijf met 4.000 werknemers zou maandelijks ongeveer $ 2 miljoen aan verloren productiviteit besparen.

Intelligent enterprise search voorkomt informatie-eilanden en stelt organisaties in staat om gemakkelijk informatie en hun bedrijfskennis van hun beste werknemers te vinden, op te sporen en te delen. Het vinden van kennis en expertise binnen de digitale werkplek moet naadloos en moeiteloos zijn. Het juiste enterprise search-platform helpt werknemers kennis en expertise te verbinden, en verbindt zelfs ongelijksoortige informatiesilo’s om ontdekking, innovatie en productiviteit te vergemakkelijken.

Zoeken lost versplintering van applicaties en digitale frictie op

Werknemers verdrinken tegenwoordig in gereedschap. Volgens een recent onderzoek van Forrester hanteren organisaties een gemiddelde 367 verschillende softwaretools, waardoor datasilo’s ontstaan ​​en processen tussen teams worden verstoord. Als gevolg hiervan besteden werknemers 25% van hun tijd aan het zoeken naar informatie in plaats van zich te concentreren op hun werk.

Dit heeft niet alleen een directe invloed op de productiviteit van werknemers, maar heeft ook implicaties voor de omzet en klantresultaten. Deze ‘app-versplintering’ verergert informatiesilo’s en creëert digitale frictie door constant van app te wisselen, waarbij van de ene tool naar de andere wordt gewisseld om werk gedaan te krijgen.

Volgens een recent onderzoek van Gartner, 44% van de gebruikers heeft een verkeerde beslissing genomen omdat ze niet op de hoogte waren van informatie die had kunnen helpen, en 43% van de gebruikers gaf aan belangrijke informatie niet op te merken omdat deze verloren was gegaan te midden van te veel apps.

Intelligent enterprise search verenigt de ervaringen van werknemers, zodat ze naadloos en nauwkeurig toegang hebben tot alle bedrijfskennis vanuit één enkele interface. Dit vermindert het wisselen tussen apps aanzienlijk, evenals frustratie voor een toch al vermoeid personeelsbestand, terwijl de productiviteit en samenwerking worden gestroomlijnd.

Zoeken wordt relevanter

Hoe vaak vindt u wat u zoekt als u iets zoekt in uw organisatie? Geheel een Thie.d van de werknemers meldt dat ze de informatie waarnaar ze op zoek zijn “nooit vinden”, altijd of meestal. Wat zijn ze dan aan het doen? Raden? Het goed maken? Vooruit opladen in onwetendheid?

Zoekrelevantie is de geheime saus waarmee wetenschappers, ingenieurs, besluitvormers, kenniswerkers en anderen de kennis, expertise en inzichten kunnen ontdekken die nodig zijn om weloverwogen beslissingen te nemen en sneller meer te doen. Het meet hoe nauw de resultaten van een zoekopdracht verband houden met de zoekopdracht van de gebruiker.

Resultaten die beter overeenkomen met wat de gebruiker hoopt te vinden, zijn relevanter en zouden hoger op de resultatenpagina moeten verschijnen. Maar veel enterprise search-platforms missen tegenwoordig de mogelijkheid om de bedoeling van de gebruiker te begrijpen en relevante zoekresultaten te leveren. Waarom? Omdat het ontwikkelen en afstemmen ervan moeilijk is. We leven dus met de gevolgen.

Intelligente enterprise search-tools doen het veel beter, met resultaten die veel relevanter zijn dan in-app-zoekopdrachten. Maar zelfs zij kunnen moeite hebben om met moeilijke scenario’s om te gaan, en de gewenste resultaten staan ​​misschien niet bovenaan de lijst. Maar de komst van LLM’s heeft de deur geopend voor het zoeken naar vectoren, het ophalen van informatie op basis van betekenis.

Vooruitgang in neurale zoekmogelijkheden is opgenomen LLM-technologie in diepe neurale netwerken: modellen die context bevatten om uitstekende relevantie te bieden door middel van semantisch zoeken. Beter nog, het combineren van semantische en vectorzoekbenaderingen met statistische zoekmogelijkheden op trefwoord levert relevantie op in een breed scala van bedrijfsscenario’s. Neuraal zoeken brengt de eerste stap in decennia naar relevantie, zodat computers kunnen leren hoe ze met mensen moeten werken in plaats van andersom.

Methoden voor het beantwoorden van vragen krijgen een neurale boost

Heb je ooit gewenst dat je bedrijf een zoekfunctie had die werkte zoals Google? Waar je meteen een antwoord kon krijgen, in plaats van eerst het juiste document te zoeken, dan de juiste sectie te vinden en vervolgens paragrafen te scannen om de informatieklomp te vinden die je nodig had? Zou het voor simpele vragen niet fijn zijn om gewoon een direct antwoord te krijgen?

Met LLM’s en het vermogen om semantisch te werken (gebaseerd op betekenis), is de mogelijkheid om vragen te beantwoorden (QA) beschikbaar in de onderneming. Neuraal zoeken geeft QA een boost: gebruikers kunnen antwoorden op eenvoudige vragen extraheren wanneer die antwoorden aanwezig zijn in het zoekcorpus. Dit verkort de tijd tot inzicht, waardoor een medewerker snel antwoord kan krijgen en zijn workflow kan voortzetten zonder op een zijspoor te raken door een langdurige zoektocht naar informatie.

Op deze manier zullen de mogelijkheden voor het beantwoorden van vragen het nut en de waarde van intelligent enterprise search vergroten, waardoor het voor werknemers gemakkelijker dan ooit wordt om te vinden wat ze nodig hebben. QA toegepast op de onderneming staat nog in de kinderschoenen, maar de technologie gaat snel; we zullen meer acceptatie zien van verschillende AI-technologieën die vragen kunnen beantwoorden, vergelijkbare documenten kunnen vinden en andere dingen kunnen doen die de tijd tot kennis verkorten en het voor werknemers gemakkelijker dan ooit maken om zich op hun werk te concentreren.

Vooruit kijken

Innovatie steunt op kennis en de verbindingen daarvan. Deze komen voort uit het vermogen om te interageren met inhoud en met elkaar, betekenis te ontlenen aan die interacties en nieuwe waarde te creëren. Enterprise Search vergemakkelijkt deze verbindingen tussen informatiesilo’s en is daarom een ​​belangrijke motor voor innovatie.

Dankzij vooruitgang in AI, zoals neurale netwerken en LLM’s, betreedt enterprise search een heel nieuw gebied van nauwkeurigheid en vaardigheid.

Jeff Evernham is VP productstrategie bij enterprise search provider Zonder welke.

Gegevensbeslissers

Welkom bij de VentureBeat-community!

DataDecisionMakers is waar experts, inclusief de technische mensen die datawerk doen, datagerelateerde inzichten en innovatie kunnen delen.

Als u wilt lezen over geavanceerde ideeën en up-to-date informatie, best practices en de toekomst van data en datatechnologie, sluit u dan aan bij DataDecisionMakers.

Je zou zelfs kunnen overwegen bijdragen aan een artikel van je eigen!

Lees meer van DataDecisionMakers