AI-nyheter 7. mars 2026

AI-nyhetsoppsummering: 7. mars 2026

🤖 Leder for OpenAI-maskinvare går av etter avtale med Pentagon

Caitlin Kalinowski, leder for maskinvare og robotikk i OpenAI, trakk seg etter selskapets avtale med Pentagon. Hun sa at overgangen ikke hadde fått nok intern overveielse før modeller ble godkjent for klassifiserte forsvarsnettverk. Hennes største bekymring var ganske direkte – menneskelig tilsyn, overvåkingsgrenser og risikoen for at dødelig autonomi skulle utvikle seg for raskt. ( Reuters )

OpenAI sier at avtalen inkluderer ytterligere sikkerhetstiltak og fortsatt forbyr innenlandsk overvåking og bruk av autonome våpen. Likevel gjør oppsigelsen at hele greia oppfattes mindre som en smidig policyoppdatering og mer som en branndør som svinger igjen midt i et møte. ( Reuters )

🏗️ Oracle og OpenAI dropper planen om å utvide datasentrene i Texas, melder Bloomberg News

Oracle og OpenAI har angivelig skrinlagt planene om å utvide sitt store AI-datasenter i Abilene, Texas, etter at finansieringsforhandlingene trakk ut og OpenAIs databehov endret seg. Anlegget var en del av det bredere initiativet mot Stargate-infrastruktur, så dette er langt fra ubetydelig. ( Reuters )

Den eksisterende campusen er fortsatt i drift, og selskapene sier at den større utbyggingen av flere gigawatt fortsetter andre steder. Samtidig kan den forlatte utvidelsen nå åpne en bane for Meta, som angivelig har diskutert å leie tomten i stedet. AI-infrastrukturen beveger seg som våt sement – ​​tung, dyr og aldri helt stabil. ( Reuters )

⚖️ Pentagon utpeker Anthropic som en forsyningskjederisiko

Pentagon stemplet formelt Anthropic som en risiko for forsyningskjeden, og begrenset bruken av Claude i kontrakter med Forsvarsdepartementet etter at selskapet nektet å løsne sikkerhetstiltakene mot autonome våpen og masseovervåking. Det er kjernen i det – en anskaffelseskamp som ble en mye større verdikamp. ( Reuters )

Anthropic sier at tiltaket ikke er juridisk forsvarlig og planlegger å utfordre det i retten. Utnevnelsen er uvanlig streng for et amerikansk AI-laboratorium, og den havner midt i en bredere splittelse om hvorvidt selskaper med frontlinjemodell bør skrive strengere regler inn i forsvarskontrakter, eller stole på at eksisterende lov gjør jobben ... noe ikke alle er forberedt på å gjøre. ( Reuters )

💬 Meta tillater AI-rivaler på WhatsApp i et forsøk på å avverge EU-tiltak

Meta sier at de vil la rivaliserende AI-chatboter bruke WhatsApp i Europa i ett år, ved hjelp av Business API-et, etter press fra EUs antitrustregulatorer. Konkurrenter hadde klaget over at Meta effektivt blokkerte dem samtidig som de favoriserte sin egen assistent – ​​en påfallende detalj, gitt hvor sentral distribusjon har blitt innen AI. ( Reuters )

Haken er at tilgangen kommer med avgifter, og kritikere hevder at det fortsatt setter mindre konkurrenter i en ulempe. Regulatorer avgjør om denne innrømmelsen er nok, så dette leses mindre som en fredsavtale og mer som en pauseknapp pakket inn i papirarbeid. ( Reuters )

📜 xAI taper forsøk på å stoppe Californias lov om offentliggjøring av AI-data

xAI tapte forsøket på å blokkere en lov i California som krever at AI-selskaper opplyser mer om dataene som brukes til å trene modellene sine. Rettens avslag på å stoppe loven betyr at xAI nå står overfor det samme presset for åpenhet som andre modellbyggere har forsøkt, til tider klønete, å unngå. ( Reuters )

Det er viktig fordi kamper om treningsdata ikke lenger bare er akademiske eller opphavsrettsrelaterte – de er i ferd med å bli et problem med samsvar i praksis. For xAI, som allerede håndterer gjentatte sikkerhetskontroverser rundt Grok, legger dette til en ny regulatorformet vekt i sekken. ( Reuters )

Vanlige spørsmål

Hvorfor trakk OpenAIs maskinvare- og robotikksjef seg etter Pentagon-avtalen?

Caitlin Kalinowski trakk seg fordi hun mente at beslutningen om å klarere modeller for klassifiserte forsvarsnettverk ikke hadde fått nok intern overveielse. Bekymringene hennes dreide seg om menneskelig tilsyn, begrensninger på overvåking og risikoen for at dødelig autonomi skulle utvikle seg for raskt. OpenAI sa at avtalen fortsatt forbyr innenlandsk overvåking og bruk av autonome våpen, men oppsigelsen antyder at den interne debatten ikke var fullstendig løst.

Hva betyr det egentlig at Pentagon kaller Anthropic en forsyningskjederisiko?

Det betyr at Claude vil bli begrenset fra bruk i kontrakter for Forsvarsdepartementet, noe som er et stort tilbakeslag for anskaffelser. Ifølge artikkelen dreier tvisten seg om Anthropics nektelse av å svekke sikkerhetstiltak knyttet til autonome våpen og masseovervåking. Anthropic sier at betegnelsen ikke er juridisk forsvarlig og planlegger å utfordre den, så dette kan bli både en rettssak og en politisk test.

Hvorfor er den avlyste utvidelsen av datasenteret i Texas viktig i nyheter om AI-bransjen?

Den forlatte utvidelsen av Abilene er viktig fordi den var en del av den bredere satsingen på Stargate-infrastruktur, og knyttet den til langsiktig planlegging av AI-databehandling. Reuters rapporterer at den eksisterende campusen fortsatt er i drift, men forsinkelser i finansieringen og skiftende databehandlingsbehov førte til at Oracle og OpenAI forlot utvidelsen. Det viser også hvor raskt store satsinger på AI-infrastruktur kan endre seg, selv når den bredere utbyggingen fortsetter andre steder.

Hvorfor lar Meta rivaliserende AI-chatboter bruke WhatsApp i Europa?

Meta gjorde dette etter press fra EUs antitrustregulatorer og klager om at de favoriserte sin egen assistent samtidig som de begrenset konkurrentene. Tilgangen er midlertidig og går gjennom Business API, så det tilsvarer ikke en fullstendig åpen dør-politikk. Avgifter gjelder fortsatt, noe som betyr at mindre konkurrenter kan fortsette å møte praktiske ulemper selv etter konsesjonen.

Hva betyr Californias lov om offentliggjøring av data om AI-opplæring for xAI?

Rettens avslag på å blokkere loven betyr at xAI nå må håndtere økte krav til åpenhet rundt treningsdata. Dette er viktig fordi modellutviklere ofte har forsøkt å unngå detaljert offentliggjøring, spesielt når datakilder er sensitive eller omstridte. I praksis er treningsdata i ferd med å bli et aktivt samsvarsspørsmål i stedet for å forbli en debatt om forskningsnormer eller opphavsrettsrisiko.

Hva er den største konklusjonen fra denne ukens nyheter om AI-bransjen?

Den felles tråden er at AI formes mindre av produktlanseringer alene og mer av styring, infrastruktur og regulering. Forsvarspartnerskap skaper intern konflikt, utvidelse av databehandling viser seg å være dyrt og flytende, og regulatorer presser hardere på tilgang og offentliggjøring. På tvers av OpenAI, Anthropic, Meta og xAI peker artikkelen på en bransje som er tvunget til å gjøre sine avveininger mer synlige.

Gårsdagens AI-nyheter: 6. mars 2026

Finn den nyeste AI-en i den offisielle AI-assistentbutikken

Om oss

Tilbake til bloggen