🧬 DeepMind lanserer AlphaGenome for å avdekke genetiske årsaker til sykdom ↗
DeepMind avduket AlphaGenome, et AI-system som har som mål å forutsi hvordan DNA-mutasjoner endrer genregulering – i utgangspunktet når gener slås på, hvor og hvor høyt. Det kan skanne enorme DNA-strekninger på én gang, inkludert de vidstrakte ikke-kodende områdene som ofte føles som biologisk mørk materie.
Argumentet er ganske direkte: raskere identifisering av hvilke mutasjoner som virkelig betyr noe for ting som kreftrisiko og komplekse arvelige sykdommer. Hvis det fungerer som annonsert, bruker forskere mindre tid på å gjette og mer tid på å teste de riktige tingene – noe som høres opplagt ut, men som liksom er hele spillet.
🧑💼 Kunstig intelligens vil koste jobber, innrømmer Liz Kendall ↗
Storbritannias teknologiminister sa åpent at bruk av kunstig intelligens vil føre til tap av arbeidsplasser – ikke den vanlige «det går bra, lover jeg»-stemningen. Hun pekte på angsten rundt opptaksmuligheter for nyutdannede innen områder som jus og finans, og lot ikke som om det finnes et pent tall noen kan tilby.
Samtidig satser myndighetene hardt på tilpasning: et stort løft for å lære opp millioner av arbeidere i grunnleggende KI-ferdigheter, med sikte på å gjøre Storbritannia til en raskere bruker av KI. Det er den klassiske spenningen – ja jobber forsvinner, ja jobber dukker opp, nei, det vil ikke føles jevnt i midten.
🗞️ Storbritannia presser Google til å tillate nettsteder å velge bort AI-oversikter ↗
Britiske konkurranseregulatorer har foreslått endringer som vil la utgivere velge å ikke bruke innholdet sitt til Googles AI-oversikter – eller til å trene frittstående AI-modeller – uten å bli straffet i vanlige søkerangeringer. Den «uten å bli straffet»-delen gjør mye arbeid her.
Tanken er å balansere makten på nytt ettersom AI-oppsummeringer omformer hvordan folk klikker (eller ikke klikker). Googles svar var i bunn og grunn: søkeatferd endrer seg, vi vurderer flere kontroller, men ikke del opp produktet i en klønete fragmentert versjon av seg selv ... noe som er rettferdig, men også praktisk.
🛡️ Sikring av dataene dine når en AI-agent klikker på en lenke ↗
OpenAI beskrev en spesifikk sikkerhetsrisiko for agenter: URL-basert datautfiltrering – der en angriper lurer en AI til å laste inn en URL som i stillhet legger inn privat informasjon i spørrestrengen. Selv om modellen aldri «sier» hemmeligheten, kan forespørselen i seg selv lekke den. Stygt og avvæpnende lavteknologisk.
Deres begrensning er en enkel regel med skarpe kanter: agenter bør bare automatisk hente URL-er som allerede er offentlige og kjent for å eksistere via en uavhengig webindeks. Hvis en lenke ikke bekreftes som offentlig, bør systemet gå saktere og gi brukeren tilbake kontrollen med advarsler – bevisst friksjon, men av den gode typen.
🇪🇺 Neste kapittel for AI i EU ↗
OpenAI publiserte en EU-fokusert plan som rammet inn et problem med «kapasitetsoverheng» – modeller kan gjøre mer enn det folk og bedrifter bruker dem til i dag, og dette gapet risikerer ujevne gevinster på tvers av land. Det er som å eie en racerbil og bare kjøre den til nærbutikken ... bortsett fra at nærbutikken er hele økonomien din.
Ved siden av retorikken finnes det konkrete elementer: et program som tar sikte på å lære opp tusenvis av europeiske små og mellomstore bedrifter i KI-ferdigheter, et stipend knyttet til forskning på ungdomssikkerhet og velvære, og en utvidet holdning til «samarbeid med myndigheter». Det er delvis et politisk notat, delvis en adopsjonskampanje – og ja, de to elementene blandes sammen.
🔐 AI-risiko møter cyberstyring: NISTs utkast til cyber AI-profil ↗
Et nytt utkast til profil fra NIST (via analyse fra en artikkel i et advokatfirma) fokuserer på hvordan organisasjoner bør kartlegge AI i cyberstyring – både å sikre AI-systemer selv og bruke AI til å forbedre cyberforsvaret. Frivillig på papiret, men «frivillig» har en tendens til å bli forventet over tid.
Utkastgruppene jobber med temaer som sikring av AI-komponenter og utrulling av AI-aktivert forsvar – inkludert hensyn til forsyningskjeden og agentlignende automatisering i responsarbeidsflyter. Vibben er: behandle AI som både en ny angrepsflate og et nytt sett med verktøy, og ikke lat som om disse opphever hverandre.
Vanlige spørsmål
Hva er DeepMinds AlphaGenome, og hvilket problem prøver det å løse?
AlphaGenome er et AI-system som DeepMind sier kan forutsi hvordan DNA-mutasjoner påvirker genregulering – når gener slås på, hvor det skjer og hvor sterkt. Det er bygget for å skanne svært store DNA-strekninger samtidig, inkludert de ikke-kodende områdene som er notorisk vanskelige å tolke. Målet er å hjelpe forskere med å finne ut hvilke mutasjoner som mest sannsynlig forårsaker sykdom, slik at laboratorietesting kan konsentrere seg om de mest lovende sporene.
Hvordan kan AlphaGenome hjelpe forskere med å finne genetiske årsaker til sykdom raskere?
I mange genetiske arbeidsflyter kommer flaskehalsen fra å krympe enorme lister over varianter ned til de få som sannsynlig endrer genaktivitet. AlphaGenomes løfte er å redusere gjettingen ved å forutsi hvordan spesifikke mutasjoner kan endre regulering på tvers av lange DNA-sekvenser. Hvis disse spådommene holder mål, kan team prioritere eksperimenter rundt variantene som mest sannsynlig er knyttet til kreftrisiko eller komplekse arvelige tilstander, og dermed bruke mindre tid på blindveier.
Vil bruk av kunstig intelligens virkelig koste jobber i Storbritannia, og hvilke roller er mest utsatt?
Storbritannias teknologiminister, Liz Kendall, sa at bruk av kunstig intelligens vil føre til tap av arbeidsplasser, og fremhevet bekymring rundt stillinger for nyutdannede. Hun pekte spesielt på områder som jus og finans, hvor oppgaver tidlig i karrieren kan være mer automatiserbare. Samtidig legger regjeringen vekt på tilpasning gjennom storstilt opplæring i grunnleggende kunstig intelligens-ferdigheter, og erkjenner at overgangen kan føles ujevn selv om nye roller dukker opp.
Kan britiske utgivere velge bort Googles AI-oversikter uten å miste søkerangeringer?
Britiske konkurranseregulatorer har foreslått endringer som vil la utgivere velge å ikke bruke innholdet sitt til Googles AI-oversikter – eller til å trene frittstående AI-modeller – uten å bli straffet i standard søkerangeringer. Målet er å balansere maktbalansen ettersom AI-oppsummeringer endrer klikkeatferd. Google har signalisert at de vurderer flere kontroller, samtidig som de advarer mot en fragmentert søkeopplevelse.
Hvordan kan en AI-agent lekke private data bare ved å klikke på en lenke?
OpenAI beskrev en URL-basert dataeksfiltreringsrisiko der en angriper ber en AI-agent om å hente en lenke som i stillhet legger inn sensitiv informasjon i spørrestrengen. Selv om modellen aldri gjentar hemmeligheten i utdataene, kan forespørselen i seg selv overføre den. En vanlig avbøtende tiltak er å legge til «bevisst friksjon», som advarsler og kreve brukerbekreftelse når en lenke ikke er uavhengig bekreftet som offentlig.
Hva er NISTs utkast til cyber AI-profil, og hvordan endrer det cyberstyring?
Et utkast til NIST-profil (diskutert via en juridisk analyse) rammer inn AI som både noe å sikre og noe å bruke i cyberforsvar. Den grupperer arbeid i temaer som sikring av AI-komponenter, håndtering av risikoer i forsyningskjeden og utrulling av AI-aktivert forsvar – inkludert mer automatiserte, agentlignende responsflyter. Selv om de er frivillige i navnet, blir slike rammeverk ofte de facto forventninger, noe som presser organisasjoner til å formelt kartlegge AI i styring og kontroll.