🧠 OpenAI samarbeider med Cerebras ↗
OpenAI sier at de legger til 750 MW med AI-beregning med ultralav latens via Cerebras – i utgangspunktet et forsøk på å få svarene til å føles mer «sanntid» i stedet for «gå og lag te, kom tilbake senere».
Salgsargumentet er enkelt: raskere slutningsløkker (spør - tenk - svar) betyr at folk blir værende lenger og har tyngre arbeidsmengder ... noe som, ja, følger sporene. Kapasiteten rulles ut i faser, med mer som kommer på nett frem til 2028.
🔍 Google bruker e-poster og YouTube-historikk i et satsing på personlig tilpasset kunstig intelligens ↗
Googles Gemini blir mer «du-kodet» ved å hente fra ting som Gmail, Søk og YouTube-historikk – hvis du velger å bruke den i hvert fall (og den er slått av som standard). Det er chatbot-versjonen av telefonen din som vet at du er sulten før du er det.
Tanken er at Gemini kan utlede preferanser og kontekst, slik at svar føles mindre generiske og mer som om de virkelig husker livet ditt. Praktisk – og også den typen ting som får deg til å stoppe opp midt i blaingen og tenke: «Vent litt, den vet mye.»
🧩 Salg av en kraftig Nvidia AI-brikke til Kina får grønt lys, med betingelser ↗
USA godkjente salget av Nvidias H200 AI-brikker til Kina – men med en rekke begrensninger (prioritet for amerikanske leveranser, ekstra gjennomgangstrinn, begrensninger rundt hvor brikkene kan havne).
Lovgiverne er splittet – noen ser det som en nasjonal sikkerhetsrisiko, andre som et konkurransespill (fordi hvis du ikke selger, vil noen andre gjøre det ... eller Kina bygger bare raskere). Det er et av de politiske trekkene som er både «strategiske» og på en eller annen måte uklare.
🛡️ Den belgiske cybersikkerhetsoppstartsbedriften Aikido får enhjørningsstatus med ny finansieringsrunde ↗
Aikido Security nådde en verdsettelse på 1 milliard dollar etter å ha samlet inn 60 millioner dollar , og lente seg sterkt mot «sikkerhetsrekkverk for utviklere»-vinkelen ettersom AI-assistert koding fortsetter å … multiplisere kode, feil og uforutsette overraskelser.
De markedsfører det som en utviklerorientert sikkerhet som automatisk flagger risikoer uten å gjøre hver sprint til et compliance-mareritt. Den litt ville delen er hvor raskt de har vokst – markedet betaler tydeligvis for «vær så snill å stoppe AI-koden min fra å sende sårbarheter».
👩💻 Anthropic utvider Claude Code utover utvikleroppgaver med Cowork ↗
Anthropic presser Claude Code inn i en bredere «jobb med meg»-vibe via Cowork – mindre bare kodehjelp, mer som en samarbeidsassistent som kan sitte i arbeidsflyter.
Det er en del av den større trenden der kodeassistenter slutter å være en fancy autofullføring og begynner å oppføre seg som semi-autonome lagkamerater ... noe som er spennende, eller alarmerende, eller begge deler – avhengig av hvordan den siste PR-anmeldelsen din gikk.
🧯 depthfirst kunngjør serie A-finansiering på 40 millioner dollar for å sikre verdens programvare ↗
depthfirst samlet inn 40 millioner dollar for å bygge en AI-basert tilnærming til programvaresikkerhet – den typen som er ment å fange opp reelle sårbarheter med færre falske alarmer (den evige drømmen, i sannhet).
De posisjonerer seg som et «anvendt AI-laboratorium» for sikkerhet, med finansiering rettet mot å skalere forskning og produktutvikling. Hvis AI bidrar til å skrive mer kode raskere, er mottrekket i bunn og grunn AI som bidrar til å forsvare den raskere – en slange som spiser en slange, i en trenchcoat.
Vanlige spørsmål
Hva betyr OpenAIs samarbeid med Cerebras for responshastigheten?
OpenAI sier at Cerebras-partnerskapet legger til 750 MW med AI-beregning med ultralav latens, med sikte på å gjøre svar mer sanntidsbaserte. Den praktiske konklusjonen er raskere slutningsløkker – spør, tenk, svar – slik at interaksjoner lander med raskere hastighet. Det kan også gjøre tyngre arbeidsmengder smidigere, uten de lange, vanskelige pausene. Kapasiteten er planlagt rullet ut i faser frem til 2028.
Når vil 750 MW med Cerebras-datamaskin faktisk være tilgjengelig?
Kunngjøringen rammer det inn som en faset utrulling, med mer kapasitet som kommer på nett frem til 2028 i stedet for alt på en gang. Med faset utrulling har de tidlige gevinstene en tendens til å dukke opp først, og deretter utvides etter hvert som infrastrukturen utvides. Hvis du sporer effekten, viser de klareste signalene seg vanligvis som lavere latens og jevnere ytelse under belastning. Overskriften er en flerårig utbygging.
Hvordan bruker Google Gemini Gmail, Søk og YouTube-logg for personlig tilpasning?
Googles plan er å gjøre Gemini mer personlig ved å hente fra kilder som Gmail, Søk og YouTube-historikk – men bare hvis du velger å aktivere den. Standardinnstillingen er at den er slått av, noe som er viktig for personvern og forventningssetting. Målet er at Gemini skal utlede dine preferanser og kontekst, slik at svarene føles mindre generiske. Mange brukere vil veie bekvemmelighet opp mot hvor mye «minne» de føler seg komfortable med å aktivere.
Er Gemini-personalisering slått på automatisk, og hva er avveiningen med personvern?
I denne utrullingen plasserer Google funksjonen som valgfri og av som standard. Det betyr at du velger å la Gemini bruke signaler fra produkter som Gmail eller YouTube-historikk for å skreddersy svar. Avveiningen er enkel: mer kontekst kan forbedre relevansen, men det øker også hvor mye personopplysninger som er involvert i opplevelsen. En vanlig tilnærming er å aktivere den selektivt og gjennomgå innstillingene regelmessig.
Hvilke betingelser satte USA på salget av Nvidia H200-brikken til Kina?
Godkjenningen som beskrives her kommer med begrensninger, inkludert prioritet for amerikanske leveranser, ekstra vurderingstrinn og begrensninger rundt hvor brikker til slutt kan ende opp. Debatten er også tydelig: noen lovgivere ser en nasjonal sikkerhetsrisiko, mens andre argumenterer for konkurranseevne – hvis amerikanske selskaper ikke selger, kan alternative leverandører eller innenlandske erstatninger akselerere. Det er et politisk trekk med strategisk intensjon og kompliserte avveininger.
Hvorfor samler AI-sikkerhetsoppstartsselskaper som Aikido og depthfirst inn store summer akkurat nå?
Temaet er at AI-assistert koding multipliserer kodeproduksjonen – og med det, feil og uforutsette sårbarheter – så etterspørselen etter utviklervennlige sikkerhetsrekkverk øker. Aikido er posisjonert som «utvikler-først» sikkerhet som flagger risikoer uten å gjøre hver sprint til compliance-friksjon, mens depthfirst presenterer en AI-native tilnærming som tar sikte på å fange opp reelle problemer med færre falske alarmer. Etter hvert som kodevolumet vokser, blir «sikre det raskere» en budsjettpost, ikke noe som er kjekt å ha.