Hver gang en ny AI-modell får en prangende demonstrasjon, dukker den samme bekymringen opp igjen – om AI vil erstatte radiologer. Det er en rimelig bekymring. Radiologi er bildetungt, mønstertungt, og datamaskiner elsker mønstre slik småbarn elsker knapper.
Her er det klarere svaret: AI endrer allerede radiologien, raskt ... og den omformer stort sett jobben, ikke visker den ut. Noen oppgaver vil krympe. Noen arbeidsflyter vil inverteres. Radiologen som aldri tilpasser seg, kan bli satt på sidelinjen. Likevel er full erstatning, på tvers av den kompliserte virkeligheten i klinisk behandling, noe helt annet.
Artikler du kanskje vil lese etter denne:
🔗 Vil AI erstatte leger: medisinens fremtid
Et realistisk blikk på AIs rolle i moderne medisinsk praksis.
🔗 Hvordan AI hjelper landbruket
Måter AI forbedrer avlinger, planlegging og beslutningstaking på gården.
🔗 Hvorfor AI er dårlig for samfunnet
Risikoer som skjevhet, jobbtap, overvåking og feilinformasjon er skadelige.
🔗 Hvordan AI oppdager avvik
Hvordan modeller flagger uvanlig oppførsel i data og systemer.
Den direkte realitetssjekken: hva AI gjør akkurat nå ✅
AI i radiologi i dag er stort sett sterk på smale jobber:
-
Flagging av hastefunn slik at de skumle studiene hopper i køen (triage) 🚨
-
Finne «kjente mønstre» som knuter, blødninger, brudd, embolier osv.
-
Å måle ting som mennesker kan måle, men hater å måle (volum, størrelser, endring over tid) 📏
-
Hjelper screeningprogrammer med å håndtere volum uten å brenne ut folk
Og det er ikke bare snakk: regulert, klinisk radiologi-AI utgjør allerede en stor del av det kliniske AI-enhetslandskapet . En taksonomigjennomgang fra 2025 av FDA-godkjente medisinske enheter med AI/ML (som dekker autorisasjoner oppført av FDA per 20. desember 2024 ) fant at de fleste enheter tar bilder som input, og radiologi var det ledende vurderingspanelet for flertallet. Det sier mye om hvor «klinisk AI» havner først. [1]
Men «nyttig» er ikke det samme som «selvstendig legeerstatning». Ulike krav, ulik risiko, ulikt ansvar ...

Hvorfor «erstatning» er feil mental modell mesteparten av tiden 🧠
Radiologi er ikke bare «se på piksler, gi sykdom et navn».
I praksis gjør radiologer ting som:
-
Avgjøre om det kliniske spørsmålet i det hele tatt samsvarer med den bestilte undersøkelsen
-
Veiing av tidligere tilfeller, operasjonshistorikk, artefakter og vanskelige tilfeller
-
Ringe henvisende kliniker for å avklare hva som faktisk skjer
-
Anbefale neste steg, ikke bare merke et funn
-
Å eie det medisinsk-juridiske ansvaret for rapporten
Her er en rask «høres kjedelig ut, er alt»-scene:
Klokken er 02:07. CT-hode. Bevegelsesartefakt. Historikkelen sier «svimmelhet», sykepleiernotatet sier «fall», og antikoagulasjonslisten sier «uh-oh».
Jobben er ikke «punktvise utfallspiksler». Jobben er triage + kontekst + risiko + neste trinns klarhet.
Derfor er det vanligste resultatet i klinisk utplassering: AI støtter radiologer i stedet for å utslette dem.
Og flere radiologiforeninger har vært tydelige om det menneskelige laget: en etisk uttalelse fra flere samfunn (ACR/ESR/RSNA/SIIM og andre) rammer inn AI som noe radiologer må håndtere ansvarlig – inkludert det faktum at radiologer fortsatt er det endelige ansvaret for pasientbehandling i en AI-støttet arbeidsflyt. [2]
Hva gjør en god versjon av AI for radiologi? 🔍
Hvis du skal bedømme et AI-system (eller bestemme deg for om du skal stole på et), er ikke den «gode versjonen» den med den kuleste demonstrasjonen. Det er den som overlever kontakten med den kliniske virkeligheten.
Et godt AI-verktøy for radiologi har vanligvis:
-
Tydelig omfang – den gjør én ting bra (eller et tett definert sett med ting)
-
Sterk validering – testet på tvers av ulike steder, skannere og populasjoner
-
Arbeidsflyttilpasning – integreres i PACS/RIS uten å gjøre alle ulykkelige
-
Lavt støynivå – færre søppelvarsler og falske positiver (eller så ignorerer du det)
-
Forklarbarhet som hjelper – ikke perfekt åpenhet, men nok til å bekrefte
-
Styring - overvåking av avvik, feil, uventet skjevhet
-
Ansvarlighet – klarhet i hvem som signerer, hvem som har ansvaret for feil, hvem som eskalerer
Dessuten er «det er FDA-godkjent» (eller tilsvarende) et meningsfullt signal – men det er ikke en sikkerhetsmekanisme. Selv FDAs egen liste over AI-aktiverte enheter er innrammet som en åpenhetsressurs som ikke er uttømmende , og inkluderingsmetoden avhenger delvis av hvordan enheter beskriver AI i offentlige materialer. Oversatt: du trenger fortsatt lokal evaluering og kontinuerlig overvåking. [3]
Dette høres kjedelig ut ... og kjedelig er bra innen medisin. Kjedelig er trygt 😬
Sammenligningstabell: vanlige AI-alternativer radiologer faktisk støter på 📊
Prisene er ofte basert på tilbud, så jeg holder den delen markedsvag (fordi den pleier å være det).
| Verktøy / kategori | Best for (publikum) | Pris | Hvorfor det fungerer (og haken ...) |
|---|---|---|---|
| Triage AI for akutte funn (slag/blødning/lungeemboli osv.) | Sykehus med mye akuttmottak, vakthold | Sitatbasert | Fremskynder prioritering 🚨 – men varsler kan bli støyende hvis de er dårlig innstilt |
| Screeningstøtte AI (mammografi osv.) | Screeningprogrammer, nettsteder med høyt volum | Per studie eller bedrift | Hjelper med volum + konsistens - men må valideres lokalt |
| Røntgendeteksjon av brystkassen med kunstig intelligens | Generell radiologi, akuttmottak | Varierer | Flott for vanlige mønstre – overser sjeldne avvikere |
| CT-verktøy for lungeknuter/thorax | Pulm-onc-forløp, oppfølgingsklinikker | Sitatbasert | Bra for å spore endringer over tid – kan overvåke små «ingenting»-flekker |
| MSK-brudddeteksjon | Akuttmottak, traumer, ortopediske rørledninger | Per studie (noen ganger) | God til å gjenta repeterende mønstre 🦴 – posisjonering/artefakter kan forstyrre |
| Arbeidsflyt/rapportutkasting (generativ AI) | Travle avdelinger, administrativt tung rapportering | Abonnement / bedrift | Sparer skrivetid ✍️ - må kontrolleres nøye for å unngå selvsikkert tull |
| Kvantifiseringsverktøy (volumer, kalsiumscoring osv.) | Kardioavbildnings- og nevroavbildningsteam | Tillegg / bedrift | Pålitelig måleassistent – trenger fortsatt menneskelig kontekst |
Formateringssæregenhet: «Pris» forblir vag fordi leverandører elsker vage priser. Det er ikke jeg som unngår det, det er markedet 😅
Der AI kan utkonkurrere gjennomsnittsmennesket i trange baner 🏁
AI skinner mest når oppgaven er:
-
Svært repetitiv
-
Mønsterstabil
-
Godt representert i treningsdata
-
Lett å score mot en referansestandard
I noen screeninglignende arbeidsflyter kan AI fungere som et svært konsistent ekstra sett med øyne. For eksempel rapporterte en stor retrospektiv evaluering av et AI-system for brystscreening sterkere gjennomsnittlig lesersammenligningsytelse (ved AUC i én leserstudie) og til og med simulert arbeidsmengdereduksjon i et dobbeltlesingsoppsett i britisk stil. Det er seieren i den «smale banen»: konsistent mønsterarbeid, i stor skala. [4]
Men igjen ... dette er arbeidsflytassistanse, ikke «AI erstatter radiologen som eier resultatet».
Der AI fortsatt sliter (og det er ikke en liten ting) ⚠️
AI kan være imponerende og likevel mislykkes på måter som er klinisk viktige. Vanlige smertepunkter:
-
Tilfeller utenfor distribusjon : sjeldne sykdommer, uvanlig anatomi, postoperative særegenheter
-
Kontekstblindhet : avbildning av funn uten «historien» kan villede
-
Artefaktfølsomhet : bevegelse, metall, merkelige skannerinnstillinger, kontrasttiming ... morsomme ting
-
Falske positiver : én dårlig AI-dag kan skape ekstra arbeid i stedet for å spare tid
-
Stille feil : den farlige typen - når den går glipp av noe i stillhet
-
Datadrift : ytelsen endres når protokoller, maskiner eller populasjoner endres
Det siste er ikke teoretisk. Selv bildemodeller med høy ytelse kan avvike når måten bilder innhentes på endres (bytte av skannermaskinvare, programvareoppdateringer, justeringer av rekonstruksjon), og denne avvikelsen kan endre klinisk meningsfull sensitivitet/spesifisitet på måter som er skadelige. Dette er grunnen til at «overvåking i produksjon» ikke er et moteord – det er et sikkerhetskrav. [5]
Dessuten – og dette er enormt – overføres ikke det kliniske ansvaret til algoritmen . Mange steder er det fortsatt radiologen som er den ansvarlige tegneren, noe som begrenser hvor passiv du realistisk sett kan være. [2]
Radiologjobben som vokser, ikke krymper 🌱
I en vri kan AI gjøre radiologi mer «legelignende», ikke mindre.
Etter hvert som automatiseringen øker, bruker radiologer ofte mer tid på:
-
Vanskelige tilfeller og pasienter med flere problemer (de AI hater)
-
Protokollering, hensiktsmessighet og utforming av behandlingsveier
-
Forklare funn til klinikere, svulstutvalg og noen ganger pasienter 🗣️
-
Intervensjonell radiologi og bildeveiledede prosedyrer (svært lite automatiserte)
-
Kvalitetsledelse: overvåking av AI-ytelse, bygging av sikker adopsjon
Det er også «meta»-rollen: noen må føre tilsyn med maskinene. Det er litt som autopilot – du vil fortsatt ha piloter. Litt feilaktig metafor kanskje ... men du skjønner.
AI erstatter radiologer: det enkle svaret 🤷♀️🤷♂️
-
Kort sikt: det erstatter arbeidsdeler (målinger, triage, noen andrelesermønstre) og endrer bemanningsbehov i utkanten av feltet.
-
Langsiktig: det kan i stor grad automatisere visse screening-arbeidsflyter, men trenger fortsatt menneskelig tilsyn og eskalering i de fleste helsesystemer.
-
Mest sannsynlig utfall: radiologer + AI yter bedre enten på egenhånd, og jobben flyttes mot tilsyn, kommunikasjon og kompleks beslutningstaking.
Hvis du er medisinstudent eller yngre lege: hvordan du fremtidssikrer (uten å få panikk) 🧩
Noen praktiske grep som hjelper, selv om du ikke er «interessert i teknologi»:
-
Lær hvordan AI feiler (skjevhet, avvik, falske positiver) – dette er klinisk leseferdighet nå [5]
-
Bli komfortabel med grunnleggende arbeidsflyt og informatikk (PACS, strukturert rapportering, QA)
-
Utvikle sterke kommunikasjonsvaner – det menneskelige laget blir mer verdifullt
-
Hvis mulig, bli med i en AI-evaluerings- eller styringsgruppe på sykehuset ditt
-
Fokus på områder med høy kontekst + prosedyrer (IR, kompleks nevro, onkologisk avbildning)
Og ja, vær den personen som kan si: «Denne modellen er nyttig her, farlig der, og slik overvåker vi den.» Den personen blir vanskelig å erstatte.
Oppsummering + rask opptak 🧠✨
AI vil absolutt omforme radiologien, og det er nok å late som om det ikke er nok. Men narrativet om at «radiologer er dømt» er stort sett clickbait med laboratoriefrakk på.
Raskt opptak
-
AI brukes allerede til triage, deteksjonsstøtte og målingshjelp.
-
Den er flott på smale, repeterende oppgaver – og ustø med sjelden, kontekstbasert klinisk virkelighet.
-
Radiologer gjør mer enn å oppdage mønstre – de setter ting i kontekst, kommuniserer og bærer ansvar.
-
Den mest realistiske fremtiden er at «radiologer som bruker AI» erstatter «radiologer som nekter det», ikke at AI erstatter hele yrket. 😬🩻
Referanser
-
Singh R. et al., npj Digital Medicine (2025) – En taksonomigjennomgang som dekker 1016 FDA-godkjente autorisasjoner for medisinsk utstyr for kunstig intelligens/maskinlæring (som oppført frem til 20. desember 2024), og som fremhever hvor ofte medisinsk kunstig intelligens er avhengig av bildeinndata og hvor ofte radiologi er det ledende vurderingspanelet. Les mer
-
Flersamfunnserklæring levert av ESR - Et tverrsamfunnsbasert etisk rammeverk for AI i radiologi, med vekt på styring, ansvarlig utplassering og fortsatt ansvarlighet for klinikere innenfor AI-støttede arbeidsflyter. Les mer
-
Side om medisinsk utstyr for AI-aktivert fra det amerikanske FDA – FDAs åpenhetsliste og metodenotater for medisinsk utstyr for AI-aktivert, inkludert forbehold om omfang og hvordan inkludering bestemmes. Les mer
-
McKinney SM et al., Nature (2020) – En internasjonal evaluering av et AI-system for brystkreftscreening, inkludert lesersammenligningsanalyse og simuleringer av arbeidsbelastningspåvirkning i et dobbeltlesingsoppsett. les mer
-
Roschewitz M. et al., Nature Communications (2023) – Forskning på ytelsesdrift under opptaksskifte i medisinsk bildeklassifisering, som illustrerer hvorfor overvåking og driftkorreksjon er viktig i distribuert bildebehandlings-AI. les mer