Hva er grunnleggende modeller i generativ AI?

Hva er grunnleggende modeller i generativ AI?

Kort svar: Grunnmodeller er store, generelle AI-modeller som er trent på enorme, brede datasett, og deretter tilpasset mange jobber (skriving, søking, koding, bilder) gjennom prompting, finjustering, verktøy eller gjenfinning. Hvis du trenger pålitelige svar, kombiner dem med forankring (som RAG), tydelige begrensninger og kontroller, i stedet for å la dem improvisere.

Viktige konklusjoner:

Definisjon : Én bredt trent basismodell som gjenbrukes på tvers av mange oppgaver, ikke én oppgave per modell.

Tilpasning : Bruk prompting, finjustering, LoRA/adaptere, RAG og verktøy for å styre atferd.

Generativ tilpasning : De driver generering av tekst, bilde, lyd, kode og multimodalt innhold.

Kvalitetssignaler : Prioriter kontrollerbarhet, færre hallusinasjoner, multimodal evne og effektiv slutning.

Risikokontroller : Planlegg for hallusinasjoner, skjevhet, personvernlekkasje og rask injeksjon gjennom styring og testing.

Hva er grunnleggende modeller i generativ AI? Infografikk

Artikler du kanskje vil lese etter denne:

🔗 Hva er et AI-selskap
Forstå hvordan AI-firmaer bygger produkter, team og inntektsmodeller.

🔗 Hvordan ser AI-kode ut
Se eksempler på AI-kode, fra Python-modeller til API-er.

🔗 Hva er en AI-algoritme
Lær hva AI-algoritmer er og hvordan de tar beslutninger.

🔗 Hva er AI-teknologi
Utforsk kjerneteknologier innen AI som driver automatisering, analyse og intelligente apper.


1) Fundamentmodeller – en definisjon uten dugg 🧠

En grunnleggende modell er en stor, generell AI-modell trent på brede data (vanligvis massevis av det), slik at den kan tilpasses mange oppgaver, ikke bare én ( NIST , Stanford CRFM ).

I stedet for å bygge en egen modell for:

  • å skrive e-poster

  • svare på spørsmål

  • oppsummering av PDF-er

  • generere bilder

  • klassifisering av supportforespørsler

  • oversette språk

  • lage kodeforslag

... du trener én stor basismodell som «lærer verden» på en uklar statistisk måte, deretter tilpasser den til spesifikke jobber med ledetekster, finjustering eller ekstra verktøy ( Bommasani et al., 2021 ).

Med andre ord: det er en generell motor du kan styre.

Og ja, nøkkelordet er «generelt». Det er hele trikset.


2) Hva er grunnleggende modeller i generativ AI? (Hvordan de passer spesifikt) 🎨📝

Så, hva er grunnleggende modeller i generativ AI? De er de underliggende modellene som driver systemer som kan generere nytt innhold – tekst, bilder, lyd, kode, video og i økende grad … blandinger av alt dette ( NIST , NIST Generative AI Profile ).

Generativ AI handler ikke bare om å forutsi merkelapper som «spam / ikke spam». Det handler om å produsere resultater som ser ut som de er laget av en person.

  • avsnitt

  • dikt

  • produktbeskrivelser

  • illustrasjoner

  • melodier

  • app-prototyper

  • syntetiske stemmer

  • og noen ganger usannsynlig selvsikkert tull 🙃

Fundamentmodeller er spesielt gode her fordi:

De er «basislaget» – som brøddeig. Du kan bake den til en baguette, pizza eller kanelboller … ikke en perfekt metafor, men du skjønner meg 😄


3) Hvorfor de forandret alt (og hvorfor folk ikke slutter å snakke om dem) 🚀

Før grunnleggende modeller var mye AI oppgavespesifikk:

  • trene en modell for sentimentanalyse

  • trene opp en annen til oversettelse

  • trene en annen for bildeklassifisering

  • trene en annen for gjenkjenning av navngitte enheter

Det fungerte, men det var tregt, dyrt og litt … sprøtt.

Stiftelsesmodellene snudde det:

Den gjenbruken er multiplikatoren. Bedrifter kan bygge 20 funksjoner oppå én modellfamilie, i stedet for å måtte finne opp hjulet 20 ganger på nytt.

Brukeropplevelsen ble også mer naturlig:

  • du bruker ikke «en klassifikator»

  • Du snakker til modellen som om det er en hjelpsom kollega som aldri sover ☕🤝

Noen ganger er det også som en kollega som selvsikkert misforstår alt, men hei. Vekst.


4) Kjerneideen: førtrening + tilpasning 🧩

Nesten alle grunnmodeller følger et mønster ( Stanford CRFM , NIST ):

Førtrening (fasen «absorber internett») 📚

Modellen er trent på massive, brede datasett ved hjelp av selvveiledet læring ( NIST ). For språkmodeller betyr det vanligvis å forutsi manglende ord eller neste token ( Devlin et al., 2018 , Brown et al., 2020 ).

Poenget er ikke å lære det én oppgave. Poenget er å lære det generelle representasjoner :

  • grammatikk

  • fakta (på en måte)

  • resonneringsmønstre (noen ganger)

  • skrivestiler

  • kodestruktur

  • vanlig menneskelig intensjon

Tilpasning («gjør det praktisk»-fasen) 🛠️

Deretter tilpasser du den ved hjelp av ett eller flere av følgende:

  • oppfordring (instruksjoner i lettfattelig språk)

  • instruksjonstuning (trening til å følge instruksjoner) ( Wei et al., 2021 )

  • finjustering (opplæring på domenedataene dine)

  • LoRA / adaptere (lette tuningsmetoder) ( Hu et al., 2021 )

  • RAG (retrieval-augmented generation – modellen konsulterer dokumentene dine) ( Lewis et al., 2020 )

  • verktøybruk (kalle funksjoner, bla gjennom interne systemer osv.)

Dette er grunnen til at den samme basismodellen kan skrive en romantisk scene ... og deretter hjelpe med å feilsøke en SQL-spørring fem sekunder senere 😭


5) Hva gjør en grunnmodell til en god versjon? ✅

Dette er den delen folk hopper over, og som de angrer på senere.

En «god» fundamentmodell er ikke bare «større». Større hjelper, ja visst ... men det er ikke det eneste. En god versjon av en fundamentmodell har vanligvis:

Sterk generalisering 🧠

Den fungerer bra på tvers av mange oppgaver uten behov for oppgavespesifikk omtrening ( Bommasani et al., 2021 ).

Styring og kontroll 🎛️

Den kan pålitelig følge instruksjoner som:

  • «vær konsis»

  • «bruk punktlister»

  • «skriv i en vennlig tone»

  • «Ikke avslør konfidensiell informasjon»

Noen modeller er smarte, men glatte. Som å prøve å holde en såpestykke i dusjen. Nyttig, men uberegnelig 😅

Lav hallusinasjonstendens (eller i det minste åpenbar usikkerhet) 🧯

Ingen modeller er immune mot hallusinasjoner, men de gode:

Gode ​​multimodale evner (ved behov) 🖼️🎧

Hvis du bygger assistenter som leser bilder, tolker diagrammer eller forstår lyd, er multimodal svært viktig ( Radford et al., 2021 ).

Effektiv inferens ⚡

Latens og kostnad spiller en rolle. En modell som er sterk, men treg, er som en sportsbil med et punktert dekk.

Sikkerhet og justeringsatferd 🧩

Ikke bare «nekte alt», men:

Dokumentasjon + økosystem 🌱

Dette høres tørt ut, men det er sant:

  • verktøy

  • evalueringsseler

  • distribusjonsalternativer

  • bedriftskontroller

  • finjusterende støtte

Ja, «økosystem» er et vagt ord. Jeg hater det også. Men det har betydning.


6) Sammenligningstabell - vanlige alternativer for fundamentmodeller (og hva de er gode for) 🧾

Nedenfor er en praktisk, litt ufullkommen sammenligningstabell. Det er ikke «den ene sanne listen», det er mer som: hva folk velger ute i naturen.

verktøy-/modelltype publikum prisaktig hvorfor det fungerer
Proprietær LLM (chat-stil) lag som ønsker fart + polering bruksbasert / abonnement Flott oppfølging av instruksjoner, sterk generell ytelse, vanligvis best «rett ut av esken» 😌
Åpen LLM (selvhostbar) utbyggere som ønsker kontroll infrastrukturkostnader (og hodepine) Tilpassbar, personvernvennlig, kan kjøres lokalt ... hvis du liker å fikle ved midnatt
Diffusjonsbildegenerator kreative, designteam gratis til betalt Utmerket bildesyntese, stilvariasjon, iterative arbeidsflyter (også: fingrene kan være av) ✋😬 ( Ho et al., 2020 , Rombach et al., 2021 )
Multimodal «visjonsspråk»-modell apper som leser bilder + tekst bruksbasert Lar deg stille spørsmål om bilder, skjermbilder, diagrammer – overraskende praktisk ( Radford et al., 2021 )
Integrering av fundamentmodell søk + RAG-systemer lav kostnad per samtale Gjør tekst om til vektorer for semantisk søk, klynging, anbefaling – stille MVP-energi ( Karpukhin et al., 2020 , Douze et al., 2024 )
Tale-til-tekst-grunnmodell kundesentre, skapere bruksbasert / lokalt Rask transkripsjon, flerspråklig støtte, god nok for støyende lyd (vanligvis) 🎙️ ( Hvisking )
Tekst-til-tale-grunnmodell produktteam, media bruksbasert Naturlig stemmegenerering, stemmestiler, fortellerstemme – kan bli skummelt-virkelig ( Shen et al., 2017 )
Kodefokusert LLM utviklere bruksbasert / abonnement Bedre på kodemønstre, feilsøking, refaktorering ... fortsatt ikke en tankeleser 😅

Legg merke til hvordan «grunnmodell» ikke bare betyr «chatbot». Innebygginger og talemodeller kan også være grunnleggende, fordi de er brede og gjenbrukbare på tvers av oppgaver ( Bommasani et al., 2021 , NIST ).


7) Nærmere titt: hvordan språkmodeller lærer (vibe-versjonen) 🧠🧃

Språkgrunnleggende modeller (ofte kalt LLM-er) trenes vanligvis på enorme tekstsamlinger. De lærer ved å forutsi tokens ( Brown et al., 2020 ). Det er alt. Ikke noe hemmelig fe-støv.

Men magien er at det å forutsi tokens tvinger modellen til å lære struktur ( CSET ):

  • grammatikk og syntaks

  • emneforhold

  • resonneringslignende mønstre (noen ganger)

  • vanlige tankerekkefølger

  • hvordan folk forklarer ting, krangler, beklager, forhandler, underviser

Det er som å lære å imitere millioner av samtaler uten å «forstå» hvordan mennesker gjør det. Noe som høres ut som om det ikke burde fungere ... og likevel fortsetter det å fungere.

En liten overdrivelse: det er i bunn og grunn som å komprimere menneskelig skrift til en gigantisk sannsynlig hjerne.
Men igjen, den metaforen er litt forbannet. Men vi beveger oss 😄


8) Nærmere titt: diffusjonsmodeller (hvorfor bilder fungerer annerledes) 🎨🌀

Bildegrunnlagsmodeller bruker ofte diffusjonsmetoder ( Ho et al., 2020 , Rombach et al., 2021 ).

Den grove ideen:

  1. Legg til støy i bildene til de i bunn og grunn er statiske på TV-en

  2. trene en modell til å reversere den støyen trinn for trinn

  3. ved genereringstidspunktet, start med støy og «fjern støy» til et bilde styrt av en ledetekst ( Ho et al., 2020 )

Derfor føles bildegenerering som å «fremkalle» et bilde, bortsett fra at bildet er en drage med joggesko i en supermarkedhylle 🛒🐉

Diffusjonsmodeller er gode fordi:

  • de genererer bilder av høy kvalitet

  • de kan bli sterkt veiledet av tekst

  • de støtter iterativ forbedring (variasjoner, innmaling, oppskalering) ( Rombach et al., 2021 )

De sliter også noen ganger med:

  • tekstgjengivelse i bilder

  • fine anatomiske detaljer

  • konsistent karakteridentitet på tvers av scener (det forbedrer seg, men fortsatt)


9) Nærmere titt: multimodale grunnlagsmodeller (tekst + bilder + lyd) 👀🎧📝

Multimodale grunnleggende modeller tar sikte på å forstå og generere på tvers av flere datatyper:

Hvorfor dette er viktig i det virkelige liv:

  • Kundesupport kan tolke skjermbilder

  • tilgjengelighetsverktøy kan beskrive bilder

  • Utdanningsapper kan forklare diagrammer

  • Skapere kan remikse formater raskt

  • Forretningsverktøy kan «lese» et skjermbilde av et dashbord og oppsummere det

Under panseret justerer multimodale systemer ofte representasjoner:

  • gjøre et bilde om til innebygde elementer

  • gjøre tekst om til innebygde elementer

  • Lær et delt rom der «katt» matcher kattepiksler 😺 ( Radford et al., 2021 )

Det er ikke alltid elegant. Noen ganger er det sydd sammen som et teppe. Men det fungerer.


10) Finjustering vs. prompting vs. RAG (hvordan du tilpasser basismodellen) 🧰

Hvis du prøver å gjøre en grunnleggende modell praktisk for et bestemt domene (juridisk, medisinsk, kundeservice, intern kunnskap), har du noen få grep:

Oppfordring 🗣️

Raskest og enklest.

  • fordeler: null trening, umiddelbar iterasjon

  • ulemper: kan være inkonsekvent, kontekstbegrensninger, umiddelbar sårbarhet

Finjustering 🎯

Tren modellen videre på eksemplene dine.

  • fordeler: mer konsistent oppførsel, bedre domenespråk, kan redusere ledetekstlengden

  • ulemper: kostnad, krav til datakvalitet, risiko for overmontering, vedlikehold

Lett tuning (LoRA / adaptere) 🧩

En mer effektiv versjon av finjustering ( Hu et al., 2021 ).

  • fordeler: billigere, modulær, enklere å bytte

  • ulemper: trenger fortsatt opplæringsrørledning og evaluering

RAG (gjenfinningsutvidet generasjon) 🔎

Modellen henter relevante dokumenter fra kunnskapsbasen din og svarer ved hjelp av dem ( Lewis et al., 2020 ).

  • fordeler: oppdatert kunnskap, internt sitat (hvis du implementerer det), mindre omskolering

  • ulemper: gjenfinningskvaliteten kan avgjøre om det blir avgjørende eller ikke, trenger god chunking + innebygging

Ærlig talt: Mange vellykkede systemer kombinerer prompting + RAG. Finjustering er kraftig, men ikke alltid nødvendig. Folk hopper til det for raskt fordi det høres imponerende ut 😅


11) Risikoer, begrensninger og delen «ikke bruk dette i blinde» 🧯😬

Grunnmodeller er kraftige, men de er ikke stabile som tradisjonell programvare. De er mer som ... en talentfull praktikant med et selvtillitsproblem.

Viktige begrensninger å planlegge for:

Hallusinasjoner 🌀

Modeller kan finne opp:

Tiltak som kan avbøte:

  • RAG med forankret kontekst ( Lewis et al., 2020 )

  • begrensede utganger (skjemaer, verktøykall)

  • eksplisitt «ikke gjett»-instruksjon

  • verifiseringslag (regler, kryssjekker, menneskelig gjennomgang)

Skjevheter og skadelige mønstre ⚠️

Fordi treningsdata gjenspeiler mennesker, kan du få:

Tiltak som kan avbøte:

Datavern og lekkasje 🔒

Hvis du mater konfidensielle data inn i et modellendepunkt, må du vite følgende:

  • hvordan den er lagret

  • om den brukes til trening

  • hvilken logging finnes

  • hva som styrer organisasjonens behov ( NIST AI RMF 1.0 )

Tiltak som kan avbøte:

Rask injeksjon (spesielt med RAG) 🕳️

Hvis modellen leser upålitelig tekst, kan teksten prøve å manipulere den:

Tiltak som kan avbøte:

Prøver ikke å skremme deg. Bare ... det er bedre å vite hvor gulvplankene knirker.


12) Hvordan velge en fundamentmodell for ditt bruksområde 🎛️

Hvis du velger en fundamentmodell (eller bygger på en), start med disse instruksjonene:

Definer hva du genererer 🧾

  • kun tekst

  • bilder

  • lyd

  • blandet multimodal

Sett din faktagrense 📌

Hvis du trenger høy nøyaktighet (finans, helse, jus, sikkerhet):

Bestem deg for ventetidsmålet ditt ⚡

Chatten er umiddelbar. Gruppeoppsummeringer kan være tregere.
Hvis du trenger umiddelbar respons, er modellstørrelse og hosting viktige.

Kartlegg personvern og samsvarsbehov 🔐

Noen lag krever:

Balansebudsjett - og tålmodighet hos ops 😅

Selvhosting gir kontroll, men øker kompleksiteten.
Administrerte API-er er enkle, men kan være dyre og mindre tilpassbare.

Et lite praktisk tips: lag en prototype med noe enkelt først, og herd deretter. Å starte med det «perfekte» oppsettet forsinker vanligvis alt.


13) Hva er grunnleggende modeller i generativ AI? (Den raske mentale modellen) 🧠✨

La oss ta det opp igjen. Hva er grunnleggende modeller i generativ AI?

De er:

  • store, generelle modeller trent på brede data ( NIST , Stanford CRFM )

  • i stand til å generere innhold (tekst, bilder, lyd osv.) ( NIST Generative AI Profile )

  • tilpasningsdyktig til mange oppgaver via ledetekster, finjustering og gjenfinning ( Bommasani et al., 2021 )

  • basislaget som driver de fleste moderne generative AI-produkter

De er ikke én enkelt arkitektur eller et enkelt merke. De er en kategori av modeller som oppfører seg som en plattform.

En grunnmodell er mindre som en kalkulator og mer som et kjøkken. Du kan lage mange måltider i den. Du kan også brenne ristet brød hvis du ikke følger med ... men kjøkkenet er fortsatt ganske hendig 🍳🔥


14) Oppsummering og takeaway ✅🙂

Grunnmodeller er de gjenbrukbare motorene til generativ AI. De trenes bredt, og tilpasses deretter til spesifikke oppgaver gjennom prompting, finjustering og gjenfinning ( NIST , Stanford CRFM ). De kan være fantastiske, rotete, kraftige og nå og da latterlige – alt på en gang.

Oppsummering:

Hvis du bygger noe med generativ AI, er det ikke valgfritt å forstå fundamentmodeller. Det er hele gulvet bygningen står på ... og ja, noen ganger vingler gulvet litt 😅

Vanlige spørsmål

Fundamentsmodeller, enkelt sagt

En grunnmodell er en stor, generell AI-modell som er trent på brede data, slik at den kan gjenbrukes til mange oppgaver. I stedet for å bygge én modell per jobb, starter du med en sterk «grunnmodell» og tilpasser den etter behov. Denne tilpasningen skjer ofte gjennom prompting, finjustering, henting (RAG) eller verktøy. Hovedideen er bredde pluss styrbarhet.

Hvordan grunnleggende modeller skiller seg fra tradisjonelle oppgavespesifikke AI-modeller

Tradisjonell AI trener ofte en separat modell for hver oppgave, som sentimentanalyse eller oversettelse. Grunnmodeller inverterer dette mønsteret: forhåndstrener én gang, og gjenbruker deretter på tvers av mange funksjoner og produkter. Dette kan redusere duplisert innsats og fremskynde levering av nye funksjoner. Avveiningen er at de kan være mindre forutsigbare enn klassisk programvare med mindre du legger til begrensninger og testing.

Grunnmodeller i generativ AI

I generativ AI er grunnleggende modeller basissystemene som kan produsere nytt innhold som tekst, bilder, lyd, kode eller multimodale utdata. De er ikke begrenset til merking eller klassifisering; de genererer svar som ligner menneskeskapt arbeid. Fordi de lærer brede mønstre under forhåndstrening, kan de håndtere mange prompttyper og formater. De er «basislaget» bak de fleste moderne generative opplevelser.

Hvordan grunnleggende modeller lærer under førtrening

De fleste språklige grunnleggende modeller lærer ved å forutsi tegn, som neste ord eller manglende ord i teksten. Dette enkle målet presser dem til å internalisere strukturer som grammatikk, stil og vanlige forklaringsmønstre. De kan også absorbere mye verdenskunnskap, men ikke alltid pålitelig. Resultatet er en sterk generell representasjon du senere kan styre mot spesifikt arbeid.

Forskjellen mellom prompting, finjustering, LoRA og RAG

Å gi instruksjoner er den raskeste måten å styre atferd på ved hjelp av instruksjoner, men det kan være skjørt. Finjustering trener modellen videre på eksemplene dine for mer konsistent atferd, men det øker kostnadene og vedlikeholdet. LoRA/adaptere er en lettere finjusteringsmetode som ofte er billigere og mer modulær. RAG henter relevante dokumenter og har modellsvaret ved hjelp av den konteksten, noe som bidrar til friskhet og forankring.

Når man skal bruke RAG i stedet for finjustering

RAG er ofte et sterkt valg når du trenger svar forankret i dine nåværende dokumenter eller interne kunnskapsbase. Det kan redusere «gjetting» ved å forsyne modellen med relevant kontekst ved generering. Finjustering passer bedre når du trenger en konsekvent stil, domenefrasering eller atferd som prompting ikke kan produsere pålitelig. Mange praktiske systemer kombinerer prompting + RAG før de går til finjustering.

Hvordan redusere hallusinasjoner og få mer pålitelige svar

En vanlig tilnærming er å forankre modellen med henting (RAG) slik at den holder seg nær den gitte konteksten. Du kan også begrense utdata med skjemaer, kreve verktøykall for viktige trinn og legge til eksplisitte «ikke gjett»-instruksjoner. Verifiseringslag er også viktige, som regelsjekker, kryssjekking og menneskelig gjennomgang for brukstilfeller med høyere innsats. Behandle modellen som en probabilistisk hjelper, ikke en kilde til sannhet som standard.

De største risikoene med fundamentmodeller i produksjon

Vanlige risikoer inkluderer hallusinasjoner, partiske eller skadelige mønstre fra treningsdata og personvernlekkasje hvis sensitive data håndteres dårlig. Systemer kan også være sårbare for umiddelbar injeksjon, spesielt når modellen leser uklarert tekst fra dokumenter eller nettinnhold. Tiltak inkluderer vanligvis styring, red-teaming, tilgangskontroller, tryggere promptmønstre og strukturert evaluering. Planlegg for disse risikoene tidlig i stedet for å oppdatere senere.

Rask injeksjon og hvorfor det er viktig i RAG-systemer

Prompt injection er når uklarert tekst prøver å overstyre instruksjoner, som «ignorer tidligere instruksjoner» eller «avslør hemmeligheter». I RAG kan hentede dokumenter inneholde disse ondsinnede instruksjonene, og modellen kan følge dem hvis du ikke er forsiktig. En vanlig tilnærming er å isolere systeminstruksjoner, rense hentet innhold og stole på verktøybaserte policyer i stedet for bare prompter. Testing med kontradiktoriske input bidrar til å avdekke svake punkter.

Hvordan velge en fundamentmodell for ditt bruksområde

Start med å definere hva du trenger å generere: tekst, bilder, lyd, kode eller multimodale utdata. Sett deretter faktastandarden – domener med høy nøyaktighet trenger ofte forankring (RAG), validering og noen ganger menneskelig gjennomgang. Vurder ventetid og kostnader, fordi en sterk modell som er treg eller dyr kan være vanskelig å levere. Til slutt, tilordne personvern og samsvarsbehov til distribusjonsalternativer og kontroller.

Referanser

  1. National Institute of Standards and Technology (NIST) - Grunnmodell (ordliste) - csrc.nist.gov

  2. Nasjonalt institutt for standarder og teknologi (NIST) - NIST AI 600-1: Generativ AI-profil - nvlpubs.nist.gov

  3. Nasjonalt institutt for standarder og teknologi (NIST) - NIST AI 100-1: Rammeverk for risikostyring for kunstig intelligens (AI RMF 1.0) - nvlpubs.nist.gov

  4. Stanford Center for Research on Foundation Models (CRFM) - Rapport - crfm.stanford.edu

  5. arXiv - On the Opportunities and Risks of Foundation Models (Bommasani et al., 2021) - arxiv.org

  6. arXiv - Språkmodeller er få-skutt-lærere (Brown et al., 2020) - arxiv.org

  7. arXivHentingsutvidet generering for kunnskapsintensive NLP-oppgaver (Lewis et al., 2020)arxiv.org

  8. arXiv - LoRA: Lavrangert tilpasning av store språkmodeller (Hu et al., 2021) - arxiv.org

  9. arXiv - BERT: Forhåndstrening av dype toveistransformatorer for språkforståelse (Devlin et al., 2018) - arxiv.org

  10. arXivFinjusterte språkmodeller er nullskuddslærere (Wei et al., 2021)arxiv.org

  11. ACM Digital Library - Undersøkelse av hallusinasjoner i generering av naturlig språk (Ji et al., 2023) - dl.acm.org

  12. arXivLæring av overførbare visuelle modeller fra veiledning av naturlig språk (Radford et al., 2021)arxiv.org

  13. arXiv - Støyfjerningsmodeller for diffusjonsprobabilistiske modeller (Ho et al., 2020) - arxiv.org

  14. arXiv - Høyoppløselig bildesyntese med latente diffusjonsmodeller (Rombach et al., 2021) - arxiv.org

  15. arXiv - Henting av tett passasje for besvarelse av spørsmål i åpent domene (Karpukhin et al., 2020) - arxiv.org

  16. arXiv - Faiss-biblioteket (Douze et al., 2024) - arxiv.org

  17. OpenAIIntroduksjon av Whisperopenai.com

  18. arXiv - Naturlig TTS-syntese ved å kondisjonere WaveNet på Mel-spektrogramprediksjoner (Shen et al., 2017) - arxiv.org

  19. Senter for sikkerhet og fremvoksende teknologi (CSET), Georgetown University - Den overraskende kraften i neste ords prediksjon: store språkmodeller forklart (del 1) - cset.georgetown.edu

  20. USENIXUttrekk av treningsdata fra store språkmodeller (Carlini et al., 2021)usenix.org

  21. OWASP - LLM01: Rask injeksjon - genai.owasp.org

  22. arXivMer enn du har bedt om: En omfattende analyse av nye trusler fra promptinjeksjon mot applikasjonsintegrerte store språkmodeller (Greshake et al., 2023)arxiv.org

  23. OWASP Cheat Sheet-serienLLM Cheat Sheet for forebygging av rask injeksjoncheatsheetseries.owasp.org

Finn den nyeste AI-en i den offisielle AI-assistentbutikken

Om oss

Tilbake til bloggen