🕵️ Storbritannia skal samarbeide med Microsoft om å bygge et system for deteksjon av dypfalsk ↗
Storbritannia sier at de samarbeider med Microsoft, akademikere og andre eksperter for å bygge et system som kan oppdage deepfakes på nettet – pluss en skikkelig måte å teste om deteksjonsverktøy holder mål i praksis.
Vektleggingen er på de skadene som rammer hardest: etterligning, svindel og seksuelt innhold uten samtykke. Ikke glamorøst, men det er der skaden konsentrerer seg.
🧠 Anthropic lanserer AI-oppgradering ettersom markedet straffer programvareaksjer ↗
Anthropic rullet ut en oppgradert Claude-modell (Opus 4.6), og viste frem bedre ytelse innen koding og finans, pluss muligheten til å tygge gjennom opptil 1 million tokens på én gang. Det er mye kontekst – som å gi modellen et helt bibliotekkort.
De heller også mot «agenter» via Claude Code, hvor oppgaver kan deles på tvers av autonome hjelpere. Praktisk, mer enn man skulle tro – og også den typen endring som gjør gammeldagse programvareinvestorer litt nervøse.
🧑💼 OpenAI avduker AI-agenttjeneste som en del av et forsøk på å tiltrekke seg bedrifter ↗
OpenAI annonserte «Frontier», en bedriftsfokusert tjeneste for å bygge og administrere AI-agenter – robotene som gjør spesifikke jobber som feilsøking av programvare, håndtering av arbeidsflyter og den slags.
Vrien er at den er ment å kobles til eksisterende bedriftsinfrastruktur og til og med støtte tredjepartsagenter, noe som kan leses som OpenAI som forsøker å bli kontrollrommet – ikke bare modellleverandøren. Ambisiøst … eller litt besittende, avhengig av hvordan du ser på det.
🪖 USA og Kina velger å trekke seg fra felles erklæring om bruk av kunstig intelligens i militæret ↗
En rekke land signerte en ikke-bindende erklæring som beskriver prinsipper for bruk av kunstig intelligens i krigføring – ting som menneskelig ansvar, tydelige kommandostrukturer og seriøs testing og risikovurdering.
Men USA og Kina signerte ikke. Som er hele historien i ett pinlig øyeblikk – regelboken finnes, og de største aktørene … holder ikke pennen.
🎭 New York-lovgivningen krever offentliggjøring av kunstig intelligens-genererte utøvere i reklame og styrker rettighetene til publisitet etter døden ↗
New York har signert lover som krever at annonser som bruker AI-genererte «syntetiske utøvere» tydelig må opplyse publikum i staten om dette – selv om annonsøren er basert et annet sted. Det handler i bunn og grunn om å ikke la et falskt menneske bli værende og kalle det markedsføring.
Separat har staten styrket reglene rundt kommersiell bruk av avdødes avbilder, inkludert digitale kopier. Det er litt dystert, ærlig talt, men også veldig «velkommen til en tid der identitet trenger sikkerhetsbelte»
Vanlige spørsmål
Hva bygger Storbritannia opp sammen med Microsoft for å oppdage deepfakes på nettet?
Storbritannia sier at de vil samarbeide med Microsoft, akademikere og andre eksperter for å bygge et system som kan oppdage deepfakes på nettet. Planen inkluderer også å lage en pålitelig måte å teste om deteksjonsverktøy holder utenfor laboratoriet. Fokuset forblir på de skadene som biter hardest: etterligning, svindel og seksuelt innhold uten samtykke.
Hvordan vil «utforskning» av deepfake-detektorer være forskjellig fra demonstrasjoner?
Ved siden av selve detektoren legger Storbritannia vekt på en måte å teste verktøy for deepfake-deteksjon under realistiske forhold. I mange datasett ser modeller sterke ut, men svekkes når innholdsformater, komprimering eller fiendtlige taktikker endres. En strukturert evalueringstilnærming bidrar til å sammenligne verktøy konsekvent og avslører hvor deteksjonen svikter i live online-miljøer.
Hva endret Anthropic i Claude Opus 4.6, og hvorfor spiller tokengrensen en rolle?
Anthropic sier at Claude Opus 4.6 forbedrer ytelsen innen områder som koding og finans, og kan håndtere opptil 1 million tokens med kontekst. Det større kontekstvinduet kan gjøre det enklere å jobbe på tvers av lange dokumenter eller komplekse kodebaser uten å stadig laste inn informasjon på nytt. De fremhevet også «agenter» via Claude Code, der oppgaver kan deles på tvers av autonome hjelpere.
Hva er OpenAI «Frontier», og hvordan passer det inn i bedriftens arbeidsflyter?
OpenAI annonserte «Frontier» som en bedriftsfokusert tjeneste for å bygge og administrere AI-agenter som utfører spesifikke jobber, som feilsøking av programvare eller håndtering av arbeidsflyter. Den er posisjonert for å kobles til eksisterende bedriftsinfrastruktur i stedet for å fungere som et frittstående modell-endepunkt. OpenAI sa også at den kan støtte tredjepartsagenter, noe som innebærer et kontrolllag for å koordinere ulike agentsystemer.
Hva sier den militære AI-erklæringen, og hva betyr den for AI-styring?
Erklæringen beskrives som ikke-bindende og legger frem prinsipper for bruk av kunstig intelligens i krigføring, inkludert menneskelig ansvar, tydelige kommandostrukturer og seriøs testing og risikovurdering. Reuters rapporterte at mange land signerte, men ikke USA og Kina. For styring av kunstig intelligens er denne reservasjonen viktig fordi den setter de største aktørene utenfor et felles sett med uttalte normer.
Hva krever New Yorks nye regler for AI-genererte utøvere i reklamer?
New York har signert lover som krever at reklame som bruker AI-genererte «syntetiske utøvere» tydelig må opplyse publikum i staten om dette, selv om annonsøren er basert et annet sted. Staten har også styrket rettighetene til publisitet etter døden rundt kommersiell bruk av avdøde personers likheter, inkludert digitale kopier. I praksis presser dette AI-styring mot tydeligere merking og strengere kontroll over bruk av identiteter.