Sluit u aan bij onze dagelijkse en wekelijkse nieuwsbrieven voor de laatste updates en exclusieve inhoud over onze toonaangevende AI-dekking. Hij leert meer
Sneeuwvlok Microsoft bereidt zich voor om krachtige taalmodellen in te zetten voor het werken aan complexe gegevens. Het bedrijf heeft vandaag aangekondigd dat het Cortex Analyst, een geheel nieuw AI-systeem voor zelfbedieningsanalyses, in publieke preview zal lanceren.
Ten eerste Het is aangekondigd Tijdens het bedrijf Data Cloud Summit in juniCortex Analyst is een volledig beheerde service die bedrijven een conversatie-interface biedt waarmee ze met hun gegevens kunnen praten. Het enige wat gebruikers hoeven te doen is zakelijke vragen stellen in gewoon Engels en het AI-systeem van de agent doet de rest, van het omzetten van claims in SQL en het opvragen van gegevens tot het uitvoeren van controles en het geven van de vereiste antwoorden.
Snowflake's hoofd van AI, Paris Gultekin, vertelt VentureBeat dat het aanbod gebruik maakt van een combinatie van meerdere LLM-agenten (Large Language Model) die samenwerken om ervoor te zorgen dat inzichten worden geleverd met een nauwkeurigheid van ongeveer 90%. Er wordt beweerd dat dit veel beter is dan de nauwkeurigheid van de huidige modellen. Biedt tekst-naar-SQL-conversie ondersteund door LLMinclusief Databricks, en kan analyseworkflows eenvoudig versnellen, waardoor zakelijke gebruikers direct toegang krijgen tot de informatie die ze nodig hebben om cruciale beslissingen te nemen.
Vereenvoudig analyses met Cortex Analyst
Zelfs nu bedrijven hun inspanningen op het gebied van datageneratie en voorspelling met behulp van AI blijven verdubbelen, speelt data-analyse nog steeds een transformerende rol in zakelijk succes. Organisaties halen waardevolle inzichten uit historisch gestructureerde gegevens – georganiseerd in tabellen – om beslissingen te nemen op gebieden als marketing en verkoop.
Maar het probleem is dat het hele analyse-ecosysteem momenteel grotendeels afhankelijk is van business intelligence-dashboards die diagrammen, grafieken en kaarten gebruiken om gegevens te visualiseren en informatie te verschaffen. Deze aanpak werkt goed, maar kan soms ook te rigoureus blijken, omdat gebruikers moeite hebben om zich in bepaalde statistieken te verdiepen en voor vervolginzichten afhankelijk zijn van vaak overwerkte analisten.
“Als je een dashboard hebt en je ziet dat er iets mis is, dan beantwoord je dat meteen met drie verschillende vragen om te begrijpen wat er aan de hand is. En als je die vragen stelt, komt er een analist die de analyse doet en binnen een week het antwoord geeft Maar daarna heb je misschien nog meer vragen. Follow-up, waardoor de analyselus open blijft en het besluitvormingsproces wordt vertraagd,’ zei Gültekin.
Om deze kloof op te lossen, begonnen veel mensen te verkennen Het potentieel van grote taalmodellen Deze modellen waren geweldig in het extraheren van inzichten uit ongestructureerde gegevens (denk aan lange PDF-bestanden). Het idee was om het ruwe gestructureerde dataschema via formulieren door te geven, zodat je een op tekst-naar-SQL gebaseerde conversatie-ervaring kon activeren, waardoor gebruikers direct met hun data konden praten en relevante zakelijke vragen konden stellen.
Met de komst van deze LLM-aangedreven beeldschermen merkte Snowflake echter één groot probleem op: lage resolutie. Volgens de interne benchmarks van het bedrijf die reële gebruiksscenario's vertegenwoordigen, bedroeg de nauwkeurigheid van analytische inzichten bij rechtstreeks gebruik van moderne modellen zoals GPT-4o ongeveer 51%, terwijl aangepaste tekstsecties voor SQL, inclusief Databricks' Genie, resulteerden in een nauwkeurigheid van 79%.
“Bij het stellen van zakelijke vragen is nauwkeurigheid het allerbelangrijkste. Eenenvijftig procent nauwkeurigheid is onaanvaardbaar. We hebben dat bijna kunnen verdubbelen tot ongeveer 90% door gebruik te maken van een reeks grote taalmodellen die nauw samenwerken.” )”, merkte Gültekin op.
Wanneer Cortex Analyst wordt geïntegreerd in een bedrijfsapplicatie, ontvangt hij bedrijfsvragen in natuurlijke taal en geeft deze door aan LLM-agenten die op verschillende niveaus zitten om nauwkeurige, hallucinatievrije antwoorden te geven, gebaseerd op bedrijfsgegevens in de Snowflake-datacloud. Deze agenten voeren verschillende taken uit, van het analyseren van de bedoeling van een vraag en het bepalen of deze kan worden beantwoord, tot het maken en uitvoeren van een SQL-query op basis daarvan en het valideren van het antwoord voordat het wordt teruggestuurd naar de gebruiker.
“We hebben systemen gebouwd die begrijpen of een vraag beantwoordbaar of dubbelzinnig is en niet kan worden beantwoord met behulp van toegankelijke gegevens. Als een vraag dubbelzinnig is, vragen we de gebruiker deze opnieuw te formuleren en suggesties te doen het taalmodel Het grote model geven we door aan een reeks LLM's, dit zijn agentmodellen die de SQL genereren, afleiden of deze SQL correct is, de onjuiste SQL herstellen en vervolgens die SQL uitvoeren om het antwoord te geven”, legt Gültekin uit.
Het AI-hoofd deelde niet de exacte details van de modellen die Cortex Analyst aandrijven, maar Snowflake bevestigde dat het een combinatie gebruikt van Speciaal arctisch model En ook van die Mistral En dood.
Hoe werkt het precies?
Om ervoor te zorgen dat de LLM-agenten achter Cortex Analyst het volledige schema van de datastructuur van een gebruiker begrijpen en nauwkeurige, contextbewuste antwoorden kunnen geven, vereist het bedrijf van klanten dat ze tijdens de onboarding-fase semantische beschrijvingen van hun data-assets geven. Dit overbrugt een groot probleem dat verband houdt met onbewerkte schema's en stelt modellen in staat de bedoeling van de vraag vast te leggen, inclusief de woordenschat van de gebruiker en de eigen terminologie.
“In echte toepassingen heb je tienduizenden tabellen en honderdduizenden kolommen met rare namen”, voegde Gültekin eraan toe. “V1 en v2” kunnen bijvoorbeeld duplicaten zijn van wat onze klanten kunnen definiëren deze statistieken en hun betekenis in semantische beschrijvingen, waardoor het systeem ze kan gebruiken bij het geven van antwoorden.
Vanaf nu biedt het bedrijf toegang tot Cortex Analyst als een REST API die in elke applicatie kan worden geïntegreerd, waardoor ontwikkelaars de flexibiliteit hebben om aan te passen hoe en waar zakelijke gebruikers de service gebruiken en met de resultaten kunnen communiceren. Er is ook de mogelijkheid om Streamlit te gebruiken om applicaties op maat te bouwen met Cortex Analyst als centrale engine.
In een privépreview hebben ongeveer 40 tot 50 bedrijven, waaronder farmaceutische gigant Bayer, Cortex Analyst ingezet om met hun gegevens te praten en analytische workflows te versnellen. Verwacht wordt dat de publieke preview dit aantal zal verhogen, vooral omdat bedrijven zich blijven concentreren op het adopteren van LLM's zonder hun banken te breken. De service geeft bedrijven de kracht van LLM's voor analyse, zonder daadwerkelijk al het implementatiegedoe en de overhead te moeten doorstaan.
Snowflake bevestigde ook dat het de komende dagen meer features zal krijgen, waaronder ondersteuning voor multi-role gesprekken voor een interactieve ervaring en complexere tabellen en grafieken.