Kort svar: Big Tech-selskaper er viktige innen AI fordi de kontrollerer de lite glamorøse essensielle tingene – databehandling, skyplattformer, enheter, appbutikker og bedriftsverktøy. Denne kontrollen lar dem finansiere frontlinjemodeller og levere funksjoner til milliarder, raskt. Hvis styring, personvernkontroller og interoperabilitet er svake, forkalkes den samme innflytelsen til innelåsing og maktkonsentrasjon.
Viktige konklusjoner:
Infrastruktur: Behandle kontroll over skyen, brikker og MLOpper som det viktigste AI-problemet.
Distribusjon: Forvent at plattformoppdateringer vil definere hva «AI» betyr for de fleste brukere.
Gatekeeping: Regler for appbutikken og API-vilkår bestemmer i stillhet hvilke AI-funksjoner som leveres.
Brukerkontroll: Krev tydelige avmeldingsmuligheter, varige innstillinger og administratorkontroller som fungerer.
Ansvarlighet: Krev revisjonslogger, åpenhet og ankemuligheter for skadelige utfall.

🔗 Fremtiden for AI: Trender og hva som skjer videre
Viktige innovasjoner, risikoer og bransjer omformet i løpet av det neste tiåret.
🔗 Grunnmodeller i generativ AI: En enkel guide
Forstå hvordan grunnleggende modeller driver moderne generative AI-applikasjoner.
🔗 Hva er et AI-selskap og hvordan fungerer det
Lær om egenskaper, team og produkter som definerer AI-fokuserte bedrifter.
🔗 Hvordan AI-kode ser ut i virkelige prosjekter
Se eksempler på AI-drevne kodemønstre, verktøy og arbeidsflyter.
La oss innse det et øyeblikk – de fleste «AI-samtaler» glir forbi de lite glamorøse delene som databehandling, distribusjon, anskaffelser, samsvar og den pinlige virkeligheten at noen må betale for GPU-er og strøm. Big Tech bor i disse lite glamorøse delene. Det er nettopp derfor det er så viktig. 😅 ( IEA - Energi og AI , NVIDIA - Oversikt over AI-inferensplattformer )
Big Techs rolle innen kunstig intelligens, i enkle ordelag 🧩
Når folk sier «Big Tech», mener de vanligvis de gigantiske plattformselskapene som kontrollerer store lag av moderne databehandling:
-
Skyinfrastruktur (der AI kjører) ☁️ ( Amazon SageMaker AI-dokumentasjon , Azure Machine Learning-dokumentasjon , Vertex AI-dokumentasjon )
-
Forbrukerenheter og operativsystemer (der AI lander) 📱💻 ( Apple Core ML , Google ML Kit )
-
Appøkosystemer og markedsplasser (der AI sprer seg) 🛒 ( Apple App Review Guidelines , Google Play Data Safety )
-
Datapipeliner og analysestabler (der AI mates) 🍽️
-
Bedriftsprogramvare (der AI tjener penger) 🧾
-
Partnerskap mellom brikker og maskinvare (der AI akselereres) 🧠🔩 ( NVIDIA - oversikt over AI-inferensplattformer )
Så rollen er ikke bare «de lager AI». Det er mer som om de bygger motorveiene, selger bilene, driver bomstasjonene og også bestemmer hvor avkjørslene går. Litt overdrivelse ... men ikke mye.
Big Techs rolle i AI: de fem store jobbene 🏗️
Hvis du vil ha en ren mental modell, har Big Tech en tendens til å gjøre fem overlappende jobber i AI-verdenen:
-
Infrastrukturleverandør
Datasentre, sky, nettverk, sikkerhet, MLOps-verktøy. Tingene som gjør AI mulig i stor skala. ( Amazon SageMaker AI-dokumentasjon , IEA - Energi og AI ) -
Modellbygger og forskningsmotor
Ikke alltid, men ofte – laboratorier, intern FoU, anvendt forskning og «produktisert vitenskap». ( Skaleringslover for nevrale språkmodeller (arXiv) , Trening av beregningsoptimale store språkmodeller (Chinchilla) (arXiv) ) -
Distributør
De kan pushe AI inn i søkebokser, telefoner, e-postklienter, annonsesystemer og verktøy på arbeidsplassen. Distribusjon er en supermakt. -
Portvokter og regelsetter.
App Store-policyer, plattformregler, API-vilkår, innholdsmoderering, sikkerhetsporter, bedriftskontroller. ( Apple App Review Guidelines , Google Play Data Safety ) -
Kapitalader
De finansierer, kjøper opp, samarbeider, ruger. De former det som overlever.
Det er Big Techs rolle innen AI, funksjonelt sett: de skaper betingelsene for at AI skal eksistere – og deretter bestemmer de hvordan den når deg.
Hva gjør Big Techs AI-rolle til en god versjon ✅😬
En «god versjon» av Big Tech innen AI handler ikke om perfeksjon. Det handler om avveininger som håndteres ansvarlig, med færre overraskende angrep for alle andre.
Her er hva som pleier å skille den «hjelpsomme kjempen»-stemningen fra den «uh-oh monopol»-stemningen:
-
Åpenhet uten bruk av sjargong.
Tydelig merking av AI-funksjoner, begrensninger og hvilke data som brukes. Ikke en 40-siders policylabyrint. ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 ) -
Ekte brukerkontroll.
Fungerende fravalg, personverninnstillinger som ikke tilbakestilles på mystisk vis, og administratorkontroller som ikke er en skattejakt. ( GDPR - Forordning (EU) 2016/679 ) -
Interoperabilitet og åpenhet – noen ganger
trenger ikke alt å være åpen kildekode, men å låse alle til én leverandør for alltid er … et valg. -
Sikkerhet med tenner
Overvåking av misbruk, red-teaming, innholdskontroller og en vilje til å blokkere åpenbart risikable brukstilfeller. ( NIST AI RMF 1.0 , NIST GenAI-profil (AI RMF-tillegg) ) -
Sunne økosystemer
Støtte til oppstartsbedrifter, partnere, forskere og åpne standarder, slik at innovasjon ikke blir til «leie en plattform eller forsvinne» ( OECDs KI-prinsipper )
Jeg sier det rett ut: den «gode versjonen» føles som et solid offentlig selskap med sterk produktsmak. Den dårlige versjonen føles som et kasino der huset også skriver reglene. 🎰
Sammenligningstabell: De beste «AI-banene» for Big Tech og hvorfor de fungerer 📊
| Verktøy (felt) | Publikum | Pris | Hvorfor det fungerer |
|---|---|---|---|
| Skybaserte AI-plattformer | Bedrifter, oppstartsbedrifter | bruksbasert | Enkel skalering, én faktura, mange knapper (for mange knapper) |
| Frontier Model API-er | Utviklere, produktteam | betal per token / nivådelt | Rask integrering, god grunnlinjekvalitet, føles som juks 😅 |
| Enhetsintegrert AI | Forbrukere, produsenter | samlet | Lav latens, personvernvennlig noen ganger, fungerer offline-aktig |
| Produktivitetssuite AI | Kontorteam | tillegg per sete | Lever i daglige arbeidsflyter – dokumenter, e-post, møter, hele orkesteret |
| Annonser + Målretting AI | Markedsførere | % av utgiftene | Stordata + distribusjon = effektivt, også litt skummelt 👀 |
| Sikkerhet + samsvar med AI | Regulerte bransjer | premie | Selger «ro i sjelen» – selv om det bare er færre varsler |
| AI-brikker + akseleratorer | Alle oppstrøms | investeringstung | Hvis du eier spadene, vinner du gullrushet (klumpete metafor, fortsatt sant) |
| Åpne økosystemer | Byggmestere, forskere | gratis + betalte nivåer | Fellesskapsmomentum, raskere iterasjon, noen ganger uregjerlig moro |
En liten bord-eilighetsbekjennelse: «gratis-aktig» jobber mye der. Gratis helt til det ikke er det lenger ... du vet hvordan det går.
Nærbilde: infrastrukturens nøkkelpunkt (databehandling, sky, brikker) 🧱⚙️
Dette er den delen folk flest ikke vil snakke om fordi den ikke er glamorøs. Men det er selve kjernen i AI.
Big Tech påvirker AI ved å kontrollere:
-
Beregningsforsyning (GPU-tilgang, klynger, planlegging) ( IEA - Energibehov fra AI )
-
Nettverk (forbindelser med høy båndbredde, strukturer med lav latens)
-
Lagring (datasjøer, gjenfinningssystemer, sikkerhetskopier)
-
MLOps-pipelines (opplæring, distribusjon, overvåking, styring) ( MLOps på Vertex AI , Azure MLOps-arkitekturer )
-
Sikkerhet (identitet, revisjonslogger, kryptering, håndheving av retningslinjer) ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 )
Hvis du noen gang har prøvd å distribuere et AI-system i et ekte selskap, vet du allerede at «modellen» er den enkle delen. Den vanskelige delen er: tillatelser, logging, datatilgang, kostnadskontroll, oppetid, hendelsesrespons ... de voksne greiene. 😵💫
Fordi Big Tech eier så mye av dette, kan de sette standardmønstre:
-
Hvilke verktøy blir standard
-
Hvilke rammeverk får førsteklasses støtte
-
Hvilken maskinvare som prioriteres
-
Hvilke prismodeller blir «normale»
Det er ikke automatisk ondt. Men det er makt.
Nærbilde: modellforskning kontra produktvirkelighet 🧪➡️🛠️
Her er spenningen: Big Tech-selskaper kan finansiere dyp forskning og trenger også kvartalsvise produktlanseringer. Den kombinasjonen gir fantastiske gjennombrudd og fører også til … tvilsomme funksjonslanseringer.
Big Tech driver vanligvis fremskritt innen kunstig intelligens gjennom:
-
Massive treningskjøringer (skalering betyr noe) ( Skaleringslover for nevrale språkmodeller (arXiv) )
-
Interne evalueringsprosesser (benchmarking, sikkerhetstester, regresjonskontroller) ( NIST GenAI-profil (AI RMF-tillegg) )
-
Anvendt forskning (å gjøre artikler om til produktatferd)
-
Forbedringer av verktøy (destillasjon, kompresjon, serveringseffektivitet)
Men produktpresset endrer ting:
-
Fart slår eleganse
-
Frakt er bedre enn å forklare
-
«God nok» slår «fullt ut forstått»
Noen ganger er det greit. De fleste brukere trenger ikke teoretisk renhet, de trenger en hjelpsom assistent i arbeidsflyten sin. Men risikoen er at «god nok» blir brukt i sensitive sammenhenger (helse, ansettelser, finans, utdanning) der «god nok» ... ikke er god nok. ( EUs AI-lov - forordning (EU) 2024/1689 )
Dette er en del av Big Techs rolle i AI – å oversette banebrytende kapasitet til massemarkedsfunksjoner, selv når kantene fortsatt er skarpe. 🔪
Nærbilde: distribusjon er den virkelige superkraften 🚀📣
Hvis du kan plassere AI i stedene der folk allerede bor digitalt, trenger du ikke å «overbevise» brukerne. Du blir bare standarden.
Distribusjonskanaler for store teknologiselskaper inkluderer:
-
Søkefelt og nettlesere 🔎
-
Mobile OS-assistenter 📱
-
Arbeidsplasspakker (dokumenter, e-post, chat, møter) 🧑💼
-
Sosiale feeder og anbefalingssystemer 📺
-
Appbutikker og plattformmarkedsplasser 🛍️ ( Apple App Reviews Guidelines , Google Play Data Safety )
Det er derfor mindre AI-selskaper ofte samarbeider med store teknologiselskaper, selv om de er nervøse for det. Distribusjon er oksygen. Uten det kan du ha verdens beste modell og fortsatt rope ut i tomrommet.
Det finnes også en subtil bivirkning: distribusjon former hva «KI» egentlig betyr for publikum. Hvis KI hovedsakelig fremstår som en skrivehjelp, antar folk at KI handler om skriving. Hvis den fremstår som bilderedigering, antar folk at KI handler om bilder. Plattformen bestemmer stemningen.
Nærbilde: data, personvern og tillitsavtalen 🔐🧠
AI-systemer blir ofte mer effektive når de er persontilpassede. Personalisering krever ofte data. Og data skaper risiko. Den trekanten forsvinner aldri.
Big Tech sitter på:
-
Forbrukeratferdsdata (søk, klikk, preferanser)
-
Bedriftsdata (e-poster, dokumenter, chatter, saker, arbeidsflyter)
-
Plattformdata (apper, betalinger, identitetssignaler)
-
Enhetsdata (posisjon, sensorer, bilder, taleinndata)
Selv når «rådataene» ikke brukes direkte, former det omkringliggende økosystemet opplæring, finjustering, evaluering og produktretning.
Tillitsavtalen ser vanligvis slik ut:
-
Brukere godtar datainnsamling fordi produktet er praktisk 🧃
-
Regulatorer protesterer når det blir skummelt 👀 ( GDPR - Forordning (EU) 2016/679 )
-
Bedrifter svarer med kontroller, retningslinjer og budskap om at personvern først
-
Alle krangler om hva «personvern» betyr
En praktisk tommelfingerregel jeg har sett fungere: hvis et selskap kan forklare sin praksis for AI-data i én enkelt samtale uten å gjemme seg bak juridisk språk, gjør de det vanligvis bedre enn gjennomsnittet. Ikke perfekt – bare bedre.
Nærbilde: Styring, sikkerhet og spillet om stille påvirkning 🧯📜
Dette er den mindre synlige rollen: Big Tech-selskaper er ofte med på å definere reglene som alle andre følger.
De former styresett gjennom:
-
Interne sikkerhetspolicyer (hva modellen vil avvise) ( NIST AI RMF 1.0 )
-
Plattformretningslinjer (hva apper kan gjøre) ( Apple App Review Guidelines , Google Play Data Safety )
-
Funksjoner for samsvar med bedriftsstandarder (revisjonsspor, oppbevaring, datagrenser) ( ISO/IEC 42001:2023 , EUs lov om kunstig intelligens - forordning (EU) 2024/1689 )
-
Deltakelse i bransjestandarder (tekniske rammeverk, beste praksis) ( OECDs prinsipper for kunstig intelligens , ISO/IEC 42001:2023 )
-
Lobbyvirksomhet og politisk engasjement (ja, den delen også)
Noen ganger er dette virkelig nyttig. Store teknologiselskaper kan investere i sikkerhetsteam, tillitsverktøy, misbruksdeteksjon og samsvarsinfrastruktur som mindre aktører ikke har råd til.
Noen ganger er det selviskhets skyld. Sikkerhet kan bli en vollgrav, der bare de største aktørene har «råd» til å overholde. Det er paradokset: sikkerhet er nødvendig, men dyr sikkerhet kan ved et uhell fryse konkurransen. ( EUs AI-lov - forordning (EU) 2024/1689 )
Det er her nyanser teller. Ikke morsomme nyanser heller – av den irriterende typen. 😬
Nærbilde: konkurranse, åpne økosystemer og oppstartsgravitasjon 🧲🌱
Big Techs rolle innen AI inkluderer også å forme markedet:
-
Oppkjøp (talenter, teknologi, distribusjon)
-
Partnerskap (modeller driftet i skyer, fellesforetak)
-
Økosystemfinansiering (kreditter, inkubatorer, markedsplasser)
-
Åpne verktøy (rammeverk, biblioteker, «åpne» utgivelser)
Det er et mønster jeg har sett gjenta seg:
-
Oppstartsbedrifter innoverer raskt
-
Big Tech integrerer eller kopierer det vellykkede mønsteret
-
Oppstartsbedrifter snur seg inn i nisjer eller blir oppkjøpsmål
-
«Plattformlaget» tykner
Det er ikke automatisk dårlig. Plattformer kan redusere friksjon og gjøre AI tilgjengelig. Men det kan også redusere mangfold. Hvis hvert produkt blir «en innpakning rundt de samme få API-ene», begynner innovasjon å føles som å omorganisere møbler i samme leilighet.
Litt rotete konkurranse er sunt. Som surdeigsstarter. Hvis du steriliserer alt, slutter det å heve seg. Den metaforen er litt ufullkommen, men jeg holder meg til den. 🍞
Lever med både spenning og forsiktighet 😄😟
Begge følelsene passer sammen. Spenning og forsiktighet kan dele samme rom.
Grunner til å være begeistret:
-
Raskere utrulling av nyttige verktøy
-
Bedre infrastruktur og pålitelighet
-
Lavere barriere for bedrifter å ta i bruk AI
-
Mer investering i sikkerhet og standardisering ( NIST AI RMF 1.0 , OECD AI-prinsipper )
Grunner til å være forsiktig:
-
Konsolidering av beregning og distribusjon ( IEA - Energibehov fra AI )
-
Innlåsing via prising, API-er og økosystemer
-
Personvernrisikoer og overvåkingsrelaterte resultater ( GDPR - forordning (EU) 2016/679 )
-
«Én bedrifts policy» blir alles virkelighet
En realistisk holdning er: Big Tech kan akselerere AI for verden, samtidig som de konsentrerer makt. Dette kan være sant samtidig. Folk misliker det svaret fordi det mangler krydder, men det stemmer overens med bevisene.
Praktiske ting å ta med seg for forskjellige lesere 🎯
Hvis du er en bedriftskjøper 🧾
-
Spør hvor dataene dine havner, hvordan de isoleres, og hva administratorer kan kontrollere ( GDPR - forordning (EU) 2016/679 , EUs AI-lov - forordning (EU) 2024/1689 )
-
Prioriter revisjonslogger, tilgangskontroller og tydelige oppbevaringsregler ( ISO/IEC 42001:2023 )
-
Se etter skjulte kostnadskurver (forbruksprisene blir raskt ville)
Hvis du er en utvikler 🧑💻
-
Bygg med tanke på portabilitet (abstraksjonslag hjelper)
-
Ikke sats alt på én leverandørfunksjon som kan forsvinne
-
Spor prisgrenser, prisendringer og policyoppdateringer som om det er en del av jobben din (fordi det er det) ( Apple App Review Guidelines , Google Play Data Safety )
Hvis du er en beslutningstaker eller ansvarlig for compliance 🏛️
-
Arbeid for interoperable standarder og transparensnormer ( OECDs prinsipper for kunstig intelligens )
-
Unngå regler som bare giganter har råd til å følge ( EUs lov om kunstig intelligens - forordning (EU) 2024/1689 )
-
Behandle «distribusjonskontroll» som et kjerneproblem, ikke en ettertanke
Hvis du er en vanlig bruker 🙋
-
Finn ut hvor AI-funksjoner finnes i appene dine
-
Bruk personvernkontroller selv om de er irriterende ( GDPR - Forordning (EU) 2016/679 )
-
Vær skeptisk til «magiske» resultater – AI er selvsikker, ikke alltid riktig 😵
Avsluttende oppsummering: Big Techs rolle i AI 🧠✨
Big Techs rolle innen AI er ikke én ting. Det er en rekke roller: infrastruktureier, modellbygger, distributør, portvokter og markedsformer. De deltar ikke bare i AI – de definerer terrenget AI vokser på.
Hvis du bare husker én linje, så gjør den slik:
Big Techs rolle i AI
Det handler om å bygge rørledninger, sette standardverdier og styre hvordan AI når mennesker – i massiv skala, med enorme konsekvenser. ( NIST AI RMF 1.0 , EUs AI-lov – forordning (EU) 2024/1689 )
Og ja, «konsekvenser» høres dramatisk ut. Men AI er et av de temaene der dramatisk noen ganger bare er … nøyaktig. 😬🤖
Vanlige spørsmål
Hva er rollen til store teknologiselskaper innen kunstig intelligens, i praksis?
Big Techs rolle innen AI er mindre «de lager modeller» og mer «de betjener maskineriet som får AI til å fungere i stor skala». De tilbyr skyinfrastruktur, sender AI gjennom enheter og apper, og setter plattformregler som former hva som bygges. De finansierer også forskning, partnerskap og oppkjøp som påvirker hvilke tilnærminger som overlever. I mange markeder definerer de effektivt standard AI-opplevelsen.
Hvorfor er datatilgang så viktig for hvem som kan bygge AI i stor skala?
Moderne AI er avhengig av store GPU-klynger, rask nettverksbygging, lagring og pålitelige MLOps-pipelines – ikke bare smarte algoritmer. Hvis du ikke får forutsigbar kapasitet, blir opplæring, evaluering og distribusjon skjøre og dyre. Big Tech kontrollerer ofte «ryggraden» (sky, chip-partnerskap, planlegging, sikkerhet), som kan bestemme hva som er mulig for mindre team. Den kraften kan være gunstig, men den forblir kraft.
Hvordan former distribusjonen av store teknologiselskaper hva «KI» betyr for vanlige brukere?
Distribusjon er en superkraft fordi den gjør AI til en standardfunksjon i stedet for et separat produkt du må velge. Når AI dukker opp i søkefelt, telefoner, e-post, dokumenter, møter og appbutikker, blir det «hva AI er» for folk flest. Det snevrer også inn offentlige forventninger: hvis AI stort sett er et skriveverktøy i appene dine, antar brukerne at AI er lik skriving. Plattformene bestemmer tonen i stillhet.
Hva er de viktigste måtene plattformregler og appbutikker fungerer som AI-portvoktere?
Retningslinjer for appvurdering, markedsvilkår, innholdsregler og API-restriksjoner kan avgjøre hvilke AI-funksjoner som er tillatt og hvordan de må oppføre seg. Selv når regler er utformet som sikkerhets- eller personvernbeskyttelse, former de også konkurransen ved å øke samsvars- og implementeringskostnadene. For utviklere betyr dette at oppdateringer av policyer kan være like viktige som modelloppdateringer. I praksis er «det som sendes» ofte «det som går gjennom porten»
Hvordan passer skybaserte AI-plattformer som SageMaker, Azure ML og Vertex AI inn i rollen til Big Tech innen AI?
Skybaserte AI-plattformer samler opplæring, distribusjon, overvåking, styring og sikkerhet på ett sted, noe som reduserer friksjon for oppstartsbedrifter og bedrifter. Verktøy som Amazon SageMaker, Azure Machine Learning og Vertex AI gjør det enklere å skalere og administrere kostnader gjennom et enkelt leverandørforhold. Ulempen er at bekvemmelighet kan øke bindingstid, fordi arbeidsflyter, tillatelser og overvåking er dypt integrert i det økosystemet.
Hva bør en bedriftskjøper spørre om før de tar i bruk AI-verktøy fra Big Tech?
Start med dataene: hvor de havner, hvordan de er isolert, og hvilke oppbevarings- og revisjonskontroller som finnes. Spør om administratorkontroller, logging, tilgangsgrenser og hvordan modeller evalueres for risiko i ditt domene. Trykktest også prissetting, fordi bruksbaserte kostnader kan øke etter hvert som adopsjonen vokser. I regulerte settinger, juster forventningene med rammeverk og samsvarskrav som organisasjonen din allerede bruker.
Hvordan kan utviklere unngå leverandørbinding når de bygger på Big Tech AI API-er?
En vanlig tilnærming er å designe for portabilitet: pakk modellkall bak et abstraksjonslag og hold ledetekster, policyer og evalueringslogikk versjonerte og testbare. Unngå å stole på én «spesiell» leverandørfunksjon som kan endres eller forsvinne. Spor prisgrenser, prisoppdateringer og policyendringer som en del av løpende vedlikehold. Portabilitet er ikke gratis, men det koster vanligvis mindre enn en tvungen migrering.
Hvordan skaper personvern og personalisering en «tillitsavtale» med AI-funksjoner?
Personalisering forbedrer ofte nytten av AI, men det øker vanligvis dataeksponering og opplevd skummelhet. Big Tech-selskaper sitter tett på atferds-, bedrifts-, plattform- og enhetsdata, så brukere og regulatorer gransker hvordan disse dataene påvirker opplæring, finjustering og produktbeslutninger. En praktisk målestokk er om et selskap kan forklare sin praksis for AI-data tydelig uten å gjemme seg bak juridisk språk. Gode kontroller og reelle fravalg er viktige.
Hvilke standarder og forskrifter er mest relevante for styring og sikkerhet av AI for store teknologiselskaper?
I mange prosesser blander styring interne sikkerhetspolicyer med eksterne rammeverk og lover. Organisasjoner refererer ofte til veiledning for risikostyring som NISTs AI RMF, styringsstandarder som ISO/IEC 42001 og regionale regler som GDPR og EUs AI-lov for visse brukstilfeller. Disse påvirker logging, revisjoner, datagrenser og hva som blokkeres eller tillates. Utfordringen er at samsvar kan bli dyrt, noe som kan favorisere større aktører.
Er Big Techs innflytelse på konkurranse og økosystemer alltid en dårlig ting?
Ikke automatisk. Plattformer kan senke barrierer, standardisere verktøy og finansiere sikkerhet og infrastruktur som mindre team ikke har råd til. Men den samme dynamikken kan redusere mangfoldet hvis alle blir en tynn innpakning rundt noen få dominerende API-er, skyer og markedsplasser. Se etter mønstre som konsolidering av databehandling og distribusjon, pluss pris- og policyendringer som er vanskelige å unngå. De sunneste økosystemene gir vanligvis plass til interoperabilitet og nye aktører.
Referanser
-
Det internasjonale energibyrået – Energi og kunstig intelligens – iea.org
-
Det internasjonale energibyrået - Energibehov fra kunstig intelligens - iea.org
-
NVIDIA – Oversikt over AI-inferensplattformer – nvidia.com
-
Amazon Web Services – Dokumentasjon for Amazon SageMaker AI (Hva er SageMaker?) – aws.amazon.com
-
Microsoft – dokumentasjon for Azure maskinlæring – learn.microsoft.com
-
Google Cloud – Vertex AI-dokumentasjon – cloud.google.com
-
Google Cloud – MLOps på Vertex AI – cloud.google.com
-
Microsoft – Veiledning for arkitektur for maskinlæringsoperasjoner (MLOps) v2 – learn.microsoft.com
-
Apple-utvikler – Core ML – developer.apple.com
-
Google Developers – ML Kit – developers.google.com
-
Apple Developer – Retningslinjer for appanmeldelse – developer.apple.com
-
Hjelp med Google Play-konsollen – Datasikkerhet – support.google.com
-
arXiv – Skaleringslover for nevrale språkmodeller – arxiv.org
-
arXiv – Trening av store språkmodeller som er optimale for beregning (Chinchilla) – arxiv.org
-
Nasjonalt institutt for standarder og teknologi – Rammeverk for risikostyring for kunstig intelligens (AI RMF 1.0) – nist.gov
-
National Institute of Standards and Technology – NIST Generative AI Profile (AI RMF-tillegg) – nist.gov
-
Den internasjonale standardiseringsorganisasjonen - ISO/IEC 42001:2023 - iso.org
-
EUR-Lex - Forordning (EU) 2016/679 (GDPR) - eur-lex.europa.eu
-
EUR-Lex - Forordning (EU) 2024/1689 (EU AI Act) - eur-lex.europa.eu
-
OECD - OECD AI-prinsipper - oecd.ai