💰 Amazon i samtaler om å investere 10 milliarder dollar i utvikleren av ChatGPT
Amazon er angivelig i diskusjoner om å investere mer enn 10 milliarder dollar i OpenAI – og hvis det faktisk skjer, vil det presse OpenAIs verdsettelse inn i «vent, seriøst?»-sonen over 500 milliarder dollar. Det posisjoneres som en blanding av finansiering og strategisk tilpasning … pluss den enkleste motivatoren av alle: datasult.
Rapporteringen antyder også at OpenAI kan lene seg mer på AWS-kapasitet og potensielt begynne å bruke Amazons Trainium-brikker, noe som i bunn og grunn gjør dette til en forsyningslinje for den neste bølgen av modellskalering (eller det virker i hvert fall slik – disse samtalene kan vakle).
🔗 Les mer
🧑💻 Utviklere kan nå sende inn apper til ChatGPT
OpenAI har åpnet appinnsendinger for gjennomgang og publisering i ChatGPT, i tillegg til en appkatalog i produktet der folk kan bla gjennom utvalgte apper eller søke etter hva som helst som er publisert. Apper kan aktiveres midt i en samtale via @omtaler eller velges fra verktøymenyen – veldig «apper, men chat-native».
De lanserer også et Apps SDK (betaversjon) pluss en pakke med utviklingsressurser (eksempler, UI-bibliotek, hurtigstart). Monetisering er forsiktig foreløpig – hovedsakelig lenker de ut for å fullføre transaksjoner – men det er ganske tydelig at OpenAI ønsker at dette skal vokse til et reelt økosystem.
🔗 Les mer
🗞️ Vi introduserer OpenAI Academy for nyhetsorganisasjoner
OpenAI lanserte et læringssenter rettet mot journalister, redaktører og utgivere, bygget sammen med partnere som American Journalism Project og The Lenfest Institute. Tanken var praktisk opplæring og håndbøker som hjelper redaksjoner med å bruke AI uten å stille svekke tilliten til prosessen.
Akademiets lanseringsplan inkluderer «AI Essentials for Journalists», pluss bruksområder som undersøkende/bakgrunnsforskning, oversettelse, dataanalyse og produksjonseffektivitet. Det er også en veldig merkbar vekt på ansvarlig bruk og intern styring – fordi, ja, noen må skrive policydokumentet som ingen vil skrive.
🔗 Les mer
⚡ Gemini 3 Flash: Grenseintelligens bygget for fart
Google rullet ut Gemini 3 Flash som en raskere og mer kostnadseffektiv modell – og gjorde den til standard i Gemini-appen og AI-modus i Søk. Satsingen er i bunn og grunn «Profesjonell resonnering, Flash-nivåhastighet», som høres ut som et slagord ... men som også beskriver hele kappløpet akkurat nå.
Den blir også presset på tvers av utvikler- og bedriftsplattformer (Gemini API, AI Studio, Vertex AI og mer). Den merkelig store underteksten: Google vil ha denne modellen overalt hvor folk allerede er, så byttekostnadene begynner å føles som tyngdekraften.
🔗 Les mer
🧩 OpenUSD og NVIDIA Halos akselererer sikkerheten for robotakser og fysiske AI-systemer
NVIDIA samler simuleringsstandarder og sikkerhetsarbeidsflyter i en mer sammenhengende «fysisk AI»-stabel – roboter og autonome kjøretøy som må overleve kaos i den virkelige verden. En viktig ingrediens er OpenUSD Core Specification 1.0, som er ment å gjøre 3D-/simuleringsrørledninger mer forutsigbare og interoperable på tvers av verktøy.
På sikkerhetssiden fremhever NVIDIA Halos AI Systems Inspection Lab (og sertifiseringsprogram) for robottaksiflåter, AV-stabler, sensorer og plattformer. Tidlige deltakere som er nevnt inkluderer Bosch, Nuro og Wayve, med Onsemi som ble utropt som de første som bestod inspeksjonen – et hyggelig lite «merkeopplåsingsøyeblikk».
🔗 Les mer
🧪 UC San Diego Lab fremmer generativ AI-forskning med NVIDIA DGX B200-systemet
UC San Diegos Hao AI Lab mottok et NVIDIA DGX B200-system for å fremme forskning på LLM-inferens med lav latens – det lite glamorøse rørsystemet som avgjør om «KI føles umiddelbar» eller «KI føles som å vente på toast». NVIDIA bemerker også at produksjonsinferenssystemer som Dynamo trekker på konsepter fra laboratoriets arbeid, inkludert DistServe.
Historien heller sterkt mot «goodput» kontra throughput – i bunn og grunn en gjennomstrømning som fortsatt treffer latenstidsmål. De beskriver også deling av forhåndsutfylling og dekoding på tvers av forskjellige GPU-er for å redusere ressursforstyrrelser, noe som er nerdete, ja, men det er den typen nerdete som endrer hvordan et produkt føles.
🔗 Les mer
🏗️ Hut 8 signerer avtale med Fluidstack om 245 MW kapasitet som en del av et partnerskap på flere gigawatt med Anthropic
Hut 8 signerte en langsiktig avtale for 245 MW kapasitet på River Bend-campusen, og leier ut en struktur verdt 7 milliarder dollar til AI-skyselskapet Fluidstack (med opsjoner som kan løfte den mye mer). Anthropic er knyttet til sluttbrukeren via det bredere partnerskapet – dette er krypto-mininginfrastruktur som snur seg inn i AI-muskler igjen, bare … større.
Det er også en førstegangskjøpsrett på opptil ytterligere 1 GW ved River Bend, pluss finansieringsengasjement fra store banker og en Google-backstop. Helt ærlig, det hele lyder som «AI vil ha strøm og eiendom – og den vil ha dem i går.»
🔗 Les mer