AI-nyheter 22. februar 2026

Oppsummering av AI-nyheter: 22. februar 2026

🏫 På noen skoler spør chatboter elevene om arbeidet deres. Men AI-revolusjonen gjør lærerne bekymret

Noen australske skoler prøver ut en skarpere vri på «vis utregningene dine» – elevene fullfører en oppgave, og deretter spør en AI-chatbot dem frem og tilbake for å sjekke at de forstår hva de har levert. Det er i utgangspunktet en muntlig oppgave, men med en maskin som spør «hva mener du med det?» helt til du begynner å vri deg på hodet.

Den største bekymringen er ujevn utrulling: en bransjerapport advarer om at raske brukere kan bli foreløpige mens andre henger etter, og dermed skape et to-trinns utdanningssystem. Lærere fortsetter også å peke på de kjente – og fortsatt alvorlige – bekymringene: personvern, velvære og hvordan man kan stoppe at «AI-hjelp» glir over i «AI gjorde det».

👮 Møtte politiet som brukte AI-verktøy levert av Palantir for å varsle betjenter om misligheter

Londons Metropolitan-stasjon bruker kunstig intelligens levert av Palantir til å analysere interne arbeidsstyrkemønstre – sykdom, fravær, overtid – og lete etter signaler som kan korrelere med problemer med profesjonelle standarder. Det presenteres som et tidsbegrenset pilotprosjekt, og viktigst av alt, sier Metropolitan-stasjonen at mennesker fortsatt tar de faktiske avgjørelsene ... men at det «fortsatt» gjør mye arbeid.

Politiforbundet er ikke begeistret, og kaller det «automatisert mistanke» og advarer om ugjennomsiktige verktøy som misforstår stress og arbeidsmengde som forseelser. Det er et av de øyeblikkene hvor teknologien høres fin ut på et lysbilde, så ser du for deg hvordan det føles på bakken, og det blir skarpt stikkende.

🛡️ Britisk personverntilsyn advarer mot AI-genererte bilder i felles uttalelse

Den britiske ICO sluttet seg til andre regulatorer i en felles advarsel om AI-genererte bilder som viser identifiserbare personer uten samtykke – i bunn og grunn: ikke bruk «det er syntetisk» som en magisk unnskyldning. Budskapet er å bygge sikkerhetstiltak tidlig og engasjere regulatorer i stedet for å gjøre det klassiske teknologiske trekket med å først drive skipsfart og be om unnskyldning senere.

De fremhever også økt risiko for barn, noe som gir mening, for når dette først sprer seg, er det som å prøve å øse glitter tilbake i en krukke. Poenget er at privatliv og verdighet er ment å overleve motesyklusen, eller det virker i hvert fall slik.

🪖 USAs forsvarsminister Hegseth innkaller Anthropics administrerende direktør til tøffe samtaler om militær bruk av Claude, melder Axios

Reuters melder at den amerikanske forsvarsministeren skal møte Anthropics administrerende direktør for det som beskrives som en mer konfronterende samtale om militær bruk av Claude. Pentagon ønsker angivelig at store AI-leverandører skal gjøre modeller tilgjengelige på klassifiserte nettverk med færre restriksjoner – og Anthropic har motstått enhver oppmykning av sikkerhetstiltakene.

Underteksten lyder som et klassisk «gå fort, men … med missiler involvert»-dilemma. Hvis partene ikke kan bli enige om rekkverk, kan forholdet bli anstrengt eller til og med sprekke – men Anthropic signaliserer også at samtalene med myndighetene fortsatt er konstruktive, så det er anspent, men ikke fullstendige bruddmeldinger (ennå).

🧠 ChatGPT – Utgivelsesnotater

OpenAIs utgivelsesnotater peker på et utvidet kontekstvindu for «Tenkemodus» – som betyr at du kan gi modellen mer tekst og holde lengre tråder sammenhengende uten at tidligere detaljer mistes. Hvis du noen gang har sett en modell «glemme» noe du bokstavelig talt nettopp sa (smerte), er dette rettet mot nettopp det.

Det er en veldig nerdete oppgradering som stille og rolig endrer det praktiske: lengre dokumentarer, mer flokete prosjekter, mer omfattende forskningsøkter. Ikke glamorøst, men det er den typen rørleggerskifte som plutselig får hele huset til å føles større.

Vanlige spørsmål

Hva betyr det når skoler bruker chatboter til å «avhøre» elever om oppgaver?

På noen australske skoler fullfører elevene en oppgave og går deretter gjennom en frem-og-tilbake-samtale med en AI-chatbot som undersøker resonnementet deres. Det fungerer som en muntlig oppgave, der elevene blir bedt om å forklare hva de har skrevet og hvorfor. Hensikten er å bekrefte forståelse, ikke bare output. Det kan også avdekke hull når en elev ikke kan forsvare sentrale påstander.

Hvordan kan AI-chatboter i skolene skape et «totrinns» utdanningssystem?

En bransjerapport advarer om at raske skoler kan bli bedre, mens skoler med lavere utvikling faller lenger bak. Hvis noen skoler tar i bruk AI-verktøy for å vurdere forståelse, støtte læring eller avskrekke misbruk, kan de forbedre resultatene raskere. Andre kan mangle budsjett, bemanningskapasitet eller klarhet i retningslinjene for å rulle ut sammenlignbare systemer. Denne ujevne opptaket kan øke eksisterende ressurs- og læringsforskjeller.

Hvordan prøver lærere å hindre at «AI-hjelp» blir til «AI gjorde det»?

En vanlig tilnærming er å flytte vurderingen mot prosess og forklaring, ikke bare det ferdige produktet. Spørsmål, utkast, refleksjoner eller muntlige kontroller i chatbot-stil kan gjøre det vanskeligere å levere inn arbeid du ikke forstår. Lærere kan også sette strengere grenser for akseptabel assistanse, for eksempel idémyldring kontra fullstendig omskriving. Vektleggingen ligger fortsatt på å demonstrere forståelse, ikke å kontrollere alle verktøy.

Hvilke personvern- og velværeproblemer oppstår når kunstig intelligens brukes i klasserom?

Lærere stadig vekk bekymringer om hvilke elevdata som samles inn, hvor de lagres og hvem som har tilgang til dem. Det er også bekymringer for velvære hvis elever føler seg konstant overvåket eller presset av maskinstyrte spørsmål. Barn er en spesiell risikogruppe, fordi sensitiv informasjon kan spres eller vedvare i systemer på uventede måter. Mange skoler tar sikte på å sette i verk sikkerhetstiltak tidlig i stedet for å prøve å etterinstallere dem senere.

Hvordan bruker Metropolitan Police Palantir-levert kunstig intelligens til å varsle om potensiell tjenestemisbruk?

Londons Metropolitan Police bruker kunstig intelligens levert av Palantir til å analysere arbeidsstyrkemønstre som sykdom, fravær og overtid. Målet er å oppdage signaler som kan korrelere med problemer med profesjonelle standarder. Det beskrives som et tidsbegrenset pilotprosjekt, og Metropolitan Police sier at det fortsatt er mennesker som tar avgjørelsene. Kritikere hevder at verktøyet kan føles som «automatisert mistanke» hvis det leser stress som en forseelse.

Hvorfor er politiforeninger bekymret for «automatisert mistanke» fra AI-tilsynsverktøy?

Politiforbundets bekymring er at ugjennomsiktige modeller kan utlede misligheter fra mønstre som har godartede forklaringer. Økte arbeidsmengder, helseproblemer og stress kan endre oppmøte eller overtid uten å antyde at det har skjedd noe galt. Hvis verktøyets logikk ikke er gjennomsiktig, blir det vanskeligere for betjenter å utfordre flagg eller for ledere å kalibrere rettferdige terskler. Selv med menneskelige beslutninger kan automatiserte signaler fortsatt forme resultatene.

Hva advarer den britiske ICO om når det gjelder AI-genererte bilder av identifiserbare personer?

Den britiske personvernvakten sluttet seg til andre regulatorer og advarte om at «syntetisk» ikke betyr konsekvensfri. Selv om et AI-generert bilde viser en identifiserbar person uten samtykke, gjelder fortsatt risikoer for personvern og verdighet. Regulatorer legger vekt på å bygge sikkerhetstiltak tidlig og engasjere seg i tilsyn i stedet for å sende dem først. De varsler også økte risikoer for barn, hvor skaden kan øke raskt når innhold sprer seg.

Hva ligger bak det rapporterte presset fra Pentagon på Anthropic om militær bruk av Claude?

Reuters melder at den amerikanske forsvarsministeren skal møte Anthropics administrerende direktør for tøffere samtaler om militær bruk av Claude. Pentagon ønsker angivelig at store AI-leverandører skal gjøre modeller tilgjengelige på klassifiserte nettverk med færre restriksjoner. Anthropic har motarbeidet løsere sikkerhetstiltak og pekt på en konflikt om autovern. Forholdet høres anspent ut, selv om begge sider signaliserer at samtalene fortsatt er konstruktive.

Hva har endret seg i ChatGPT-utgivelsesnotatene angående kontekstlengden i «Thinking»-modus?

OpenAIs utgivelsesnotater peker på et utvidet kontekstvindu for «Tenkemodus», som lar mer tekst ligge i én tråd. I praksis kan dette hjelpe med lange dokumenter, komplekse prosjekter og flertrinnsforskning der tidligere detaljer er viktige. Det er en rørleggerlignende oppgradering snarere enn en prangende funksjon. Hovedfordelen er færre detaljer som tapes over lengre økter.

Gårsdagens AI-nyheter: 21. februar 2026

Finn den nyeste AI-en i den offisielle AI-assistentbutikken

Om oss

Tilbake til bloggen