AI-nyheter 2. februar 2026

Oppsummering av AI-nyheter: 2. februar 2026

💻 OpenAI lanserer Codex-app for å vinne terreng i AI-kodingskappløpet

OpenAI leverte en Codex-app for skrivebordet som ligner på et kommandosenter for å sjonglere flere kodeagenter samtidig – ikke bare en enkelt chattråd du forlegger i den mentale skuffen fem minutter senere.

Stemningen er «å føre tilsyn med en liten sverm», med parallelle arbeidsstrømmer og mer langvarige oppgaver, noe som høres produktivt ut ... og også som om du har blitt forfremmet til å lede små, utrettelige praktikanter.

Det er et ganske direkte skudd mot rivaler som har spist kodeverktøylunsjen i det siste. Ikke et knockout-slag, men et høyere dytt enn vanlig.

⚙️ Eksklusivt: Kilder sier at OpenAI er misfornøyd med noen Nvidia-brikker og ser etter alternativer

Klagen er ikke «kan ikke trene store modeller» – det er inferenshastighet, øyeblikket der modellen må spytte ut svar raskt, igjen og igjen, i stor skala. Nvidia forblir sentralt, men presspunktene endrer seg.

Så selskapet har lett etter alternativer, inkludert AMD pluss spesialiserte aktører som Cerebras og Groq – den typen maskinvare som lever for latens og innebygd minne.

Offentlig er alle fortsatt høflige (nesten urovekkende høflige), men underteksten er klar: hvis kodeagenter er den nye trenden, slutter hastighet å være «kjekt å ha» og blir hele gamet.

🏗️ Oracle-aksjer stiger ettersom innsamlingen på 50 milliarder dollar letter frykten for finansiering av datasentre

Oracle la frem en plan for å skaffe en enorm mengde penger via gjeld og egenkapital, med sikte på å finansiere en datasenterutbygging som er tett knyttet til selskapets største AI-forpliktelser.

Analytikere formulerte det som «ok, du kan sikkert betale for dette», noe som er en morsom form for beroligelse – som å bli fortalt at flyet ditt sannsynligvis har nok drivstoff.

Selv med finansieringsplanen henger den nervøse tanken igjen: om alle disse utgiftene til AI-infrastruktur fører til varige gevinster, eller bare veldig dyre blinkende lys.

🌿 Carbon Robotics bygde en AI-modell som oppdager og identifiserer planter

Carbon Robotics avduket en «stor plantemodell» for å drive sine laserbaserte lukeroboter – som riktignok fortsatt høres ut som en tegneserieskurk, men tydeligvis er den ekte og praktisk.

Den praktiske gevinsten er stor: systemet kan gjenkjenne nytt ugress uten den langsomme «merke, omskolere, vent»-løkken. Bønder kan peke på hva de skal drepe og hva de skal spare, og roboten tilpasser seg uten en fullstendig tilbakestilling.

Det er en av de AI-historiene som i det stille føles viktigere enn de prangende demonstrasjonene – mindre poesi, mer matforsyning.

⚖️ Antropisk satsing på juridisk teknologi

Anthropic utvikler plugins som integrerer modellen deres i reelle arbeidsflyter, inkludert en juridisk plugin rettet mot dokumentgjennomgang og kontraktsanalyse. Det er den typen arbeid folk sverger på er «nyansert» ... helt til de har gjort 200 nesten identiske klausuler på rad.

Det er imidlertid ikke en ett-klikks erstatning for juridiske team. Implementering av dette krever fortsatt tekniske ferdigheter, og alle kommer til å bli besatt av datasikkerhet – som de burde.

Den litt krydrede implikasjonen: leverandører av juridisk programvare bygget på smal automatisering kan plutselig føles mye mindre spesielle.

🧬 ConcertAI lanserer akselererte kliniske studier som utnytter Agentic AI for å radikalt forkorte studietidslinjene

ConcertAI rullet ut en plattform for «akselererte kliniske studier» bygget rundt agentisk AI, med sikte på å fremskynde de mer krevende delene – protokolldesign, gjennomførbarhetskontroller, valg av sted, rekruttering, hele den sammenhengende kjeden.

De hevder store reduksjoner i tidsfrister og endringer ved å bruke agenter som henter fra virkelige og proprietære data, pluss koblinger til vanlige forskningskilder. Høres ambisiøst ut – og klinisk drift kunne trengt litt magi for å fjerne friksjoner.

Hvis det fungerer bare halvveis, er det mindre «KI kurerer alt» og mer «KI får maskinen til å slutte å stoppe», som kanskje er den mest troverdige typen fremgang.

Vanlige spørsmål

Hva er OpenAI Codex-appen, og hva gjør den?

OpenAI Codex-appen beskrives som et skrivebordsbasert «kommandosenter» for å koordinere flere kodeagenter samtidig. I stedet for å være i én enkelt chattetråd, støtter den parallelle arbeidsstrømmer og mer langvarige oppgaver du kan overvåke. Målet er å administrere en liten «sverm» av agenter mens du gjennomgår, styrer og integrerer det de produserer.

Hvordan er OpenAI Codex-appen forskjellig fra en vanlig kodechatbot?

En typisk kodechatbot forblir forankret i én samtaletråd, mens OpenAI Codex-appen er innrammet rundt å orkestrere flere agenter parallelt. Det endrer arbeidsflyten fra «spør, vent, spør igjen» til «deleger flere oppgaver og spor fremdrift». I praksis kan det føles nærmere prosjekttilsyn enn ren chat, spesielt når oppgaver går utover en rask løkke med prompt-respons.

Hvilke typer arbeid er best egnet til å veilede flere kodeagenter?

I mange pipelines utmerker multiagentoppsett seg når arbeidet kan deles inn i parallelle spor som fortsatt trenger menneskelig tilsyn. Et vanlig mønster er å tildele separate agenter til feilsøking, skriving av tester, oppdatering av dokumenter eller utforskning av alternative implementeringer, samtidig som man holder den overordnede arkitekturen sammenhengende. Det hjelper mest når oppgaver er tydelig avgrenset, differanser gjennomgås nøye, og endringer koordineres slik at agenter ikke kolliderer i de samme områdene av en kodebase.

Hvorfor er inferenshastighet så viktig for kodeagenter?

Kodeagenter kan generere en jevn strøm av små, hyppige forespørsler, spesielt når de kjører parallelt og samhandler med verktøy. Latens og gjennomstrømning blir mer "brukerorientert" enn de er i engangsmodelldemoer. Når responsivitet i stor skala blir flaskehalsen, blir inferenshastighet en kjerneproduktbegrensning, ikke en sekundær infrastrukturdetalj.

Hvilke chipalternativer utforskes foruten Nvidia for AI-inferens?

Rapporter sier at Nvidia fortsatt er sentralt, men det er økende interesse for alternativer rettet mot raskere inferens. Navn som nevnes inkluderer AMD og spesialiserte aktører som Cerebras og Groq. Vektleggingen er mindre på «kan det trenes» og mer på servering med lav latens og høy gjennomstrømning, spesielt ettersom agentiske arbeidsflyter skaleres opp.

Hvorfor samler Oracle inn opptil 50 milliarder dollar, og hva brukes det til?

Oracle la frem en plan om å hente inn en stor blanding av gjeld og egenkapital for å finansiere en utbygging av et datasenter knyttet til store AI-forpliktelser. Dette er posisjonert som en måte å dempe bekymringene om hvorvidt selskapet kan finansiere store infrastrukturutgifter. Det gjenværende spørsmålet investorer ser på er om store AI-investeringer blir varig avkastning snarere enn bare større kostnader.

Hvordan endrer Carbon Robotics' plantemodell laserlukeroboter?

Carbon Robotics introduserte en «stor plantemodell» for å oppdage og identifisere planter for å drive laserbasert luking. Det sentrale løftet er raskere tilpasning: gjenkjenning av nytt ugress uten den langsomme sløyfen med merking, omskolering og venting på en fullstendig modelloppdatering. Bønder kan indikere hva de skal fjerne kontra hva de skal bevare, og systemet er designet for å justere uten en fullstendig tilbakestilling.

Hvordan fremstår agentiske AI-verktøy i juridisk arbeid og kliniske studier?

Anthropic beskrives som en plattform som driver med plugins som integreres i arbeidsflyter, inkludert gjennomgang av juridiske dokumenter og kontraktsanalyse. Separat lanserte ConcertAI en plattform for «akselererte kliniske studier» som har som mål å fremskynde protokolldesign, gjennomførbarhetskontroller, valg av sted og rekruttering. På begge områder avhenger praktisk utrulling vanligvis av sikkerhet, styring og nøye validering, ikke bare modellkapasitet.

Gårsdagens AI-nyheter: 1. februar 2026

Finn den nyeste AI-en i den offisielle AI-assistentbutikken

Om oss

Tilbake til bloggen