🧠 AMD viser frem ny, kraftigere AI-brikke på CES-arrangementet ↗
AMD rullet ut nye Instinct-brikker for publikum som «tren større modeller raskere» – inkludert MI455 for rackservere og MI440X for mer tradisjonelle bedriftsoppsett. Stemningen var: ja, Nvidia er fortsatt målestokken, men AMD vil ha en større smakebit.
OpenAI ble til og med nevnt på scenen som et signal om at «seriøse kjøpere er her». Ikke subtilt, ikke stille, men egentlig en form for beregningsfleksibilitet.
🚢 Nvidias administrerende direktør sier at kjøpsordrer, ikke formell erklæring, vil signalisere kinesisk godkjenning av H200 ↗
Jensen Huang antydet at «godkjenningsøyeblikket» for H200-brikker i Kina ikke vil komme som en storslått kunngjøring – det vil dukke opp når bestillinger lander. Det er en avgjort hverdagslig måte å snakke om geopolitikk på, og det sporer fortsatt.
Flaskehalsen er fortsatt lisenser og retningslinjer, ikke etterspørsel. Det er som om markedet bare tramper med foten mens papirarbeidet bare går sin gang ... og går sin gang.
💼 Accenture kjøper opp fakultet for å skalere AI-kapasiteter ↗
Accenture annonserte at de kjøper opp Faculty, et britisk AI-firma, for å skalere opp leveransen av «ansvarlig» AI på tvers av store bedriftskunder. Oversatt: flere AI-prosjekter, mer implementeringsmuss og mer helhetlig konsulentarbeid.
Fakultetets arbeid tenderer mot beslutningsintelligens – simulering, optimalisering, den slags «få systemet til å velge»-håndverk. Mindre chatbot-glitter, flere regneark i styrerommet … eller det virker i hvert fall slik.
🧸 En lovgiver i California foreslår et fireårig forbud mot AI-chatboter i barneleker ↗
Et forslag i California ville sette AI-chatbot-funksjoner i barneleker på pause i fire år. Det er i bunn og grunn en lovgivende «pause» for pratsomme dukker og kosedyr med meninger.
Underteksten er overtalelse og trygghet – barn er lette å dytte til, og et leketøy som kan styre følelser er … mye. Leketøyprodusenter vil kalle det overdrivelse, foreldre vil kalle det sunn fornuft, alle vil krangle uansett.
🧯 Bølgen av falske bilder av kvinner og jenter med Grok AI er forferdelig, sier britisk minister ↗
Britiske tjenestemenn fordømte en bølge av ikke-samtykkelige, AI-genererte seksualiserte bilder knyttet til Grok, inkludert forfalskninger i «avkledningsstil». Det er den typen historie som får deg til å falle i magen – deretter blir du sint, og så sliten.
Det bygger seg opp press rundt håndheving og plattformansvar, og regulatorer blir dratt inn i søla. Teknologien er «mektig» på samme måte som en boltsaks er mektig … feil kontekst, feil hender.
⚖️ FTC opphever ordre mot AI-oppstartsbedrift, med henvisning til Trump-direktiv ↗
FTC skal angivelig ha henlagt en ordre mot en AI-oppstartsbedrift, med endringen knyttet til et direktiv fra Trump-administrasjonen. Det er et tydelig signal om håndhevingsstemningen – en lettere håndheving, i hvert fall i denne banen.
Det betyr ikke at AI-firmaer plutselig er konsekvenssikre. Men det antyder at den regulatoriske temperaturen kan svinge raskt når politiske prioriteringer endres – som en termostat noen stadig fikler med midt på vinteren.
🧬 NVIDIA lanserer neste generasjon av AI med Rubin ↗
Nvidia avduket sin Rubin-plattform, og presenterte den som det neste store steget for skalering av AI-systemer – nye brikker, ny plattformhistorie, hele «dette er fremtiden»-trommeslaget. Fokuset er ytelse og kostnad per databehandling, fordi det er slagmarken nå.
Det er også en påminnelse om at frontlinje-AI ikke bare handler om modeller – det handler om infrastruktur, forsyningskjeder og hvem som fysisk kan sende varene. Programvare får memene, maskinvare får pengene … irriterende konsistent.
Vanlige spørsmål
Hva annonserte AMD på CES om sine nye AI-brikker?
AMD introduserte nye Instinct-brikker designet for å trene større AI-modeller raskere, og posisjonerte MI455 for rack-skala servere og MI440X for mer tradisjonelle bedriftsdistribusjoner. Budskapet var at Nvidia fortsatt er referansen, men AMD presser på for en større andel av datasentermarkedet. OpenAIs omtale på scenen ble presentert som et tegn på at seriøse kjøpere følger med.
Hvordan forventes Nvidia H200-godkjenningen fra Kina å vise seg i praksis?
Nvidias administrerende direktør indikerte at «godkjennings»-signalet sannsynligvis ikke vil komme som en dramatisk offentlig erklæring. I stedet vil det sannsynligvis dukke opp når bestillinger begynner å komme inn, noe som antyder at den viktigste begrensningen er lisensiering og policy snarere enn etterspørsel. Med andre ord, markedet kan være klart, men leveransene avhenger av regulatorisk papirarbeid fremover.
Hva er Nvidias Rubin-plattform, og hvorfor er den viktig for AI-infrastruktur?
Nvidia presenterte Rubin som sin neste store plattformsatsing for skalering av AI-systemer, og pekte på nye brikker, en bredere plattformnarrativ og forbedret ytelse og kostnad per beregning. Vektleggingen understreker at fremskritt innen AI i frontlinjen avhenger av infrastruktur og evnen til å levere maskinvare i stor skala, ikke bare av modellfremskritt. Det er en påminnelse om at forsyningskjeder og distribusjonsrealiteter er med på å bestemme hvem som leder.
Hva betyr Accentures oppkjøp av fakultet for AI-prosjekter i bedrifter?
Accenture annonserte at de kjøper opp Faculty, et britisk AI-firma, for å utvide sin kapasitet til å levere «ansvarlig» AI på tvers av store bedriftskunder. Fokuset ser ut til å være mindre på chatbot-demoer og mer på beslutningsintelligensarbeid som simulering og optimalisering. For kjøpere betyr dette vanligvis mer ende-til-ende implementeringsstøtte, fra strategi til utrulling og driftsskalering.
Hvorfor vurderer California et fireårig forbud mot AI-chatboter i barneleker?
Forslaget ville sette AI-chatbot-funksjoner i barneleker på pause i fire år, noe som gjenspeiler bekymringer rundt overtalelse, sikkerhet og hvor lett barn kan bli påvirket følelsesmessig. Kjernebekymringen er at interaktive leker kan forme atferd og følelser på måter som er vanskelige for foreldre å se eller kontrollere. Forvent krangler om overdreven innsats kontra barnevern, samt press på leketøyprodusenter for å redesigne funksjoner.
Hva er problemet med falske bilder relatert til Grok, og hvilken ansvarlighet diskuteres?
Britiske tjenestemenn fordømte en bølge av ikke-samtykkelige, AI-genererte seksualiserte bilder knyttet til Grok, inkludert forfalskninger i «avkledningsstil». Debatten beveger seg mot håndheving og plattformansvar, der regulatorer trekkes inn for å håndtere skader som raskt skaleres. I praksis har dette en tendens til å bli spørsmål om moderering, sikkerhetstiltak, rapporteringsveier og hvilke konsekvenser som gjelder når misbruk sprer seg.