Kort svar: AI-oppskalering fungerer ved å trene en modell på parede bilder med lav og høy oppløsning, og deretter bruke den til å forutsi troverdige ekstra piksler under oppskalering. Hvis modellen har sett lignende teksturer eller ansikter under trening, kan den legge til overbevisende detaljer; hvis ikke, kan den «hallusinere» artefakter som glorier, voksaktig hud eller flimring i video.
Viktige konklusjoner:
Prediksjon : Modellen genererer plausible detaljer, ikke en garantert rekonstruksjon av virkeligheten.
Modellvalg : CNN-er har en tendens til å være mer stødige; GAN-er kan se skarpere ut, men risikerer å finne opp funksjoner.
Artefaktsjekker : Se etter glorier, gjentatte teksturer, «nesten bokstaver» og plastaktige ansikter.
Videostabilitet : Bruk tidsmessige metoder, ellers vil du se skimring og drift fra bilde til bilde.
Bruk med høy innsats : Hvis nøyaktighet er viktig, oppgi behandlingen og bruk resultatene som illustrasjoner.

Du har sikkert sett det: et lite, sprøtt bilde blir til noe skarpt nok til å skrives ut, strømmes eller legges inn i en presentasjon uten å krympe seg. Det føles som juks. Og – på den beste måten – det er det liksom 😅
Så, hvordan AI-oppskalering fungerer, handler om noe mer spesifikt enn «datamaskinen forbedrer detaljer» (håndbølget) og nærmere «en modell forutsier en plausibel høyoppløselig struktur basert på mønstre den har lært fra mange eksempler» ( Deep Learning for Image Super-resolution: A Survey ). Dette forutsigelsestrinnet er hele spillet – og det er derfor AI-oppskalering kan se fantastisk ut ... eller litt plastisk ... eller som om katten din fikk bonusværhår.
Artikler du kanskje vil lese etter denne:
🔗 Hvordan AI fungerer
Lær det grunnleggende om modeller, data og inferens i AI.
🔗 Hvordan AI lærer
Se hvordan treningsdata og tilbakemeldinger forbedrer modellens ytelse over tid.
🔗 Hvordan AI oppdager avvik
Forstå mønstergrunnlinjer og hvordan AI raskt flagger uvanlig atferd.
🔗 Hvordan AI forutsier trender
Utforsk prognosemetoder som oppdager signaler og forutser fremtidig etterspørsel.
Hvordan AI-oppskalering fungerer: kjerneideen, med hverdagslige ord 🧩
Oppskalering betyr økt oppløsning: flere piksler, større bilde. Tradisjonell oppskalering (som bikubisk) strekker i utgangspunktet piksler og jevner ut overganger ( bikubisk interpolering ). Det er greit, men det kan ikke oppfinne nye detaljer – det bare interpolerer.
AI-oppskalering prøver noe dristigere (også kjent som «superoppløsning» i forskningsverdenen) ( Deep Learning for Image Super-resolution: A Survey ):
-
Den ser på lavoppløsningsinngangen
-
Gjenkjenner mønstre (kanter, teksturer, ansiktstrekk, tekststrøk, stoffvev…)
-
Forutsier hvordan en versjon med høyere oppløsning bør se ut
-
Genererer ekstra pikseldata som passer til disse mønstrene
Ikke «gjenopprette virkeligheten perfekt», mer som «gjette svært troverdig» ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ). Hvis det høres litt mistenkelig ut, tar du ikke feil – men det er også derfor det fungerer så bra 😄
Og ja, dette betyr at AI-oppskalering i bunn og grunn er kontrollert hallusinasjon ... men på en produktiv måte som respekterer piksler.
Hva gjør en god versjon av AI-oppskalering? ✅🛠️
Hvis du bedømmer en AI-oppskaler (eller en forhåndsinnstilt innstilling), er dette det som pleier å være viktigst:
-
Detaljgjenoppretting uten overkoking.
God oppskalering gir sprøhet og struktur, ikke sprø støy eller falske porer. -
Kantdisiplin
Rene linjer holder seg rene. Dårlige modeller får kantene til å vingle eller spire glorier. -
Teksturrealisme.
Hår skal ikke bli til et penselstrøk. Murstein skal ikke bli til et repeterende mønsterstempel. -
Støy- og kompresjonshåndtering
Mange hverdagsbilder blir JPEG-behandlet til det fulle. En god oppskaler forsterker ikke den skaden ( Real-ESRGAN ). -
Ansikts- og tekstbevissthet
Ansikter og tekst er de enkleste stedene å oppdage feil. Gode modeller behandler dem forsiktig (eller har spesialiserte moduser). -
Konsistens på tvers av bilder (for video)
Hvis detaljer flimrer fra bilde til bilde, vil øynene dine skrike. Videooppskalering lever eller dør av tidsmessig stabilitet ( BasicVSR (CVPR 2021) ). -
Kontroller som gir mening
Du vil ha glidebrytere som tilordnes reelle resultater: støyreduksjon, uskarphet, fjerning av artefakter, kornethet, skjerping ... de praktiske tingene.
En stille regel som holder: den «beste» oppskaleringen er ofte den du knapt legger merke til. Det ser bare ut som om du hadde et bedre kamera til å begynne med 📷✨
Sammenligningstabell: populære AI-oppskaleringsalternativer (og hva de er gode for) 📊🙂
Nedenfor er en praktisk sammenligning. Prisene er med vilje uklare fordi verktøyene varierer etter lisens, pakker, databehandlingskostnader og alt det morsomme.
| Verktøy / Tilnærming | Best for | Prisstemning | Hvorfor det fungerer (omtrent) |
|---|---|---|---|
| Topaz-stil skrivebordsoppskalere ( Topaz Photo , Topaz Video ) | Bilder, video, enkel arbeidsflyt | Betalt-aktig | Sterke generelle modeller + mye tuning, har en tendens til å «bare fungere» ... stort sett |
| Adobes funksjoner av typen «Superoppløsning» ( Adobe Enhance > Superoppløsning ) | Fotografer som allerede er i det økosystemet | Abonnement-y | Solid detaljrekonstruksjon, vanligvis konservativ (mindre drama) |
| Ekte-ESRGAN / ESRGAN-varianter ( Ekte-ESRGAN , ESRGAN ) | Gjør-det-selv, utviklere, batchjobber | Gratis (men tidkrevende) | Flott på teksturdetaljer, kan være sterk i ansiktet hvis du ikke er forsiktig |
| Diffusjonsbaserte oppskaleringsmoduser ( SR3 ) | Kreativt arbeid, stiliserte resultater | Blandet | Kan lage lekre detaljer – kan også finne på tull, så … jepp |
| Spilloppskalere (DLSS/FSR-stil) ( NVIDIA DLSS , AMD FSR 2 ) | Spilling og rendering i sanntid | Bundlet | Bruker bevegelsesdata og lærte forutsetninger – jevn ytelse vinner 🕹️ |
| Skyoppskaleringstjenester | Bekvemmelighet, raske gevinster | Betal per bruk | Rask + skalerbar, men du bytter kontroll og noen ganger subtilitet |
| Videofokuserte AI-oppskalere ( BasicVSR , Topaz Video ) | Gamle opptak, anime, arkiver | Betalt-aktig | Temporale triks for å redusere flimmer + spesialiserte videomodeller |
| Oppskalering av «smart» telefon/galleri | Tilfeldig bruk | Inkludert | Lettvektsmodeller innstilt for behagelig ytelse, ikke perfeksjon (fortsatt hendig) |
Formateringssæregenhet: «Paid-ish» gjør mye arbeid i den tabellen. Men du skjønner tegninga 😅
Den store hemmeligheten: modeller lærer en kartlegging fra lav oppløsning til høy oppløsning 🧠➡️🖼️
Kjernen i mesteparten av AI-oppskalering er et overvåket læringsoppsett ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ):
-
Start med bilder i høy oppløsning («sannheten»)
-
Nedsampler dem til lavoppløselige versjoner («input»)
-
Tren en modell til å rekonstruere den opprinnelige høyoppløselige fra lavoppløsnings-
Over tid lærer modellen korrelasjoner som:
-
«Denne typen uskarphet rundt et øye tilhører vanligvis øyevippene»
-
«Denne pikselklyngen indikerer ofte serif-tekst»
-
«Denne kantgradienten ser ut som en taklinje, ikke tilfeldig støy»
Det handler ikke om å memorere spesifikke bilder (i den enkle forstand), det handler om å lære statistisk struktur ( Deep Learning for Image Super-resolution: A Survey ). Tenk på det som å lære grammatikken til teksturer og kanter. Ikke poesigrammatikk, mer som ... IKEA manuell grammatikk 🪑📦 (klumpete metafor, men likevel nært nok).
Det grunnleggende: hva skjer under inferens (når du oppskalerer) ⚙️✨
Når du mater et bilde inn i en AI-oppskaler, er det vanligvis en pipeline som dette:
-
Forbehandling
-
Konverter fargerom (noen ganger)
-
Normaliser pikselverdier
-
Del bildet i biter hvis det er stort (VRAM-realitetssjekk 😭) ( Real-ESRGAN-repo (flisalternativer) )
-
-
Funksjonsutvinning
-
Tidlige lag oppdager kanter, hjørner og gradienter
-
Dypere lag oppdager mønstre: teksturer, former, ansiktskomponenter
-
-
Gjenoppbygging
-
Modellen genererer et objektkart med høyere oppløsning
-
Så konverterer du det til faktisk pikselutgang
-
-
Etterbehandling
-
Valgfri sliping
-
Valgfri støyreduksjon
-
Valgfri undertrykkelse av artefakter (ringing, glorier, blokkering)
-
En subtil detalj: mange verktøy skalerer opp fliser og blander deretter skjøter. Gode verktøy skjuler flisgrenser. Meh-verktøyene etterlater svake rutenettmerker hvis du myser. Og ja, du kommer til å myse, fordi mennesker elsker å inspisere små ufullkommenheter med 300 % zoom som små gremliner 🧌
De viktigste modellfamiliene som brukes for AI-oppskalering (og hvorfor de føles annerledes) 🤖📚
1) CNN-basert superoppløsning (den klassiske arbeidshesten)
Konvolusjonelle nevrale nettverk er flotte på lokale mønstre: kanter, teksturer, små strukturer ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ).
-
Fordeler: rask, stabil, færre overraskelser
-
Ulemper: kan se litt «bearbeidet» ut hvis det presses hardt
2) GAN-basert oppskalering (ESRGAN-stil) 🎭
GAN-er (Generative Adversarial Networks) trener en generator til å produsere høyoppløselige bilder som en diskriminator ikke kan skille fra ekte bilder ( Generative Adversarial Networks ).
-
Fordeler: Kraftige detaljer, imponerende tekstur
-
Ulemper: kan finne på detaljer som ikke var der – noen ganger feil, noen ganger uhyggelige ( SRGAN , ESRGAN )
Et GAN kan gi deg den skarpheten du kan gispe. Det kan også gi portrettmotivet ditt et ekstra øyenbryn. Så ... velg dine kamper 😬
3) Diffusjonsbasert oppskalering (det kreative jokertegnet) 🌫️➡️🖼️
Diffusjonsmodeller fjerner støy trinn for trinn og kan veiledes til å produsere høyoppløselige detaljer ( SR3 ).
-
Fordeler: kan være utrolig god på troverdige detaljer, spesielt for kreativt arbeid
-
Ulemper: kan avvike fra den opprinnelige identiteten/strukturen hvis innstillingene er aggressive ( SR3 )
Det er her «oppskalering» begynner å blandes inn i «nytolkning». Noen ganger er det akkurat det du ønsker. Noen ganger er det ikke det.
4) Videooppskalering med tidsmessig konsistens 🎞️
Videooppskalering legger ofte til bevegelsesbevisst logikk:
-
Bruker nærliggende rammer for å stabilisere detaljer ( BasicVSR (CVPR 2021) )
-
Prøver å unngå flimmer og krypende artefakter
-
Kombinerer ofte superoppløsning med støyreduksjon og fjerning av interlacing ( Topaz Video )
Hvis bildeoppskalering er som å restaurere ett maleri, er videooppskalering som å restaurere en flipbok uten at karakterens nese endrer form for hver side. Noe som er … vanskeligere enn det høres ut.
Hvorfor AI-oppskalering noen ganger ser falsk ut (og hvordan man oppdager det) 👀🚩
Oppskalering av kunstig intelligens mislykkes på gjenkjennelige måter. Når du først har lært deg mønstrene, vil du se dem overalt, som å kjøpe en ny bil og plutselig legge merke til den modellen i hver gate 😵💫
Vanlige forteller:
-
Voksing av hud i ansiktet (for mye støyfjerning + utjevning)
-
Overskarpede glorier rundt kantene (klassisk «overshoot»-territorium) ( bikubisk interpolasjon )
-
Gjentatte teksturer (murvegger blir kopi-lim-mønstre)
-
Sprø mikrokontrast som skriker «algoritme»
-
Tekstforfalskning der bokstaver blir nesten-bokstaver (den verste typen)
-
Detaljavvik der små funksjoner subtilt endres, spesielt i diffusjonsarbeidsflyter ( SR3 )
Den vanskelige delen: noen ganger ser disse artefaktene «bedre» ut ved første øyekast. Hjernen din liker skarphet. Men etter et øyeblikk føles den … rar.
En grei taktikk er å zoome ut og sjekke om det ser naturlig ut på normal avstand. Hvis det bare ser bra ut på 400 % zoom, er ikke det en seier, det er en hobby 😅
Slik fungerer AI-oppskalering: treningssiden, uten mattehodepine 📉🙂
Trening av superoppløsningsmodeller innebærer vanligvis:
-
Parede datasett (lavoppløsningsinndata, høyoppløsningsmål) ( Bildesuperoppløsning ved bruk av dype konvolusjonsnettverk (SRCNN) )
-
Tapsfunksjoner som straffer feilaktige rekonstruksjoner ( SRGAN )
Typiske tapstyper:
-
Pikseltap (L1/L2)
Fremmer nøyaktighet. Kan gi litt myke resultater. -
Perseptuelt tap
Sammenligner dypere trekk (som «ser dette likt ut») i stedet for eksakte piksler ( Perseptuelle tap (Johnson et al., 2016) ). -
Adversarial loss (GAN)
Oppmuntrer til realisme, noen ganger på bekostning av bokstavelig nøyaktighet ( SRGAN , Generative Adversarial Networks ).
Det er en konstant tautrekking:
-
Gjør det tro mot originalen
vs. -
Gjør det visuelt tiltalende
Ulike verktøy faller inn på forskjellige steder i det spekteret. Og du foretrekker kanskje ett av dem, avhengig av om du restaurerer familiebilder eller lager en plakat der «pent utseende» er viktigere enn rettsmedisinsk nøyaktighet.
Praktiske arbeidsflyter: bilder, gamle skanninger, anime og video 📸🧾🎥
Bilder (portretter, landskap, produktbilder)
Beste praksis er vanligvis:
-
Lett støyfjerning først (om nødvendig)
-
Eksklusivt med konservative innstillinger
-
Tilsett korn igjen hvis ting føles for glatte (ja, virkelig)
Korn er som salt. For mye ødelegger middagen, men ingenting i det hele tatt kan smake litt flatt 🍟
Gamle skanninger og sterkt komprimerte bilder
Disse er vanskeligere fordi modellen kan behandle kompresjonsblokker som «tekstur».
Prøv:
-
Fjerning eller deblokkering av gjenstander
-
Så oppskalere
-
Så lett skjerping (ikke for mye ... jeg vet, alle sier det, men likevel)
Anime og linjekunst
Linjetegninger drar nytte av:
-
Modeller som bevarer rene kanter
-
Redusert teksturhallusinasjon.
Oppskalering av anime ser ofte flott ut fordi formene er enklere og konsistente. (Heldig.)
Video
Videoen legger til ekstra trinn:
-
Denoise
-
Deinterlace (for visse kilder)
-
Eksklusivt
-
Temporal utjevning eller stabilisering ( BasicVSR (CVPR 2021) )
-
Valgfri korngjeninnføring for kohesjon
Hvis du hopper over tidsmessig konsistens, får du den skimrende detaljflimmeren. Når du først legger merke til det, kan du ikke avfeie det. Som en knirkende stol i et stille rom 😖
Å velge innstillinger uten å gjette vilt (en liten jukselapp) 🎛️😵💫
Her er en grei starttankegang:
-
Hvis ansiktene ser plastiske ut.
Reduser støyreduksjonen, reduser skarpheten, prøv en modell eller modus som bevarer ansiktet. -
Hvis teksturene ser for intense ut,
senk glidebryterne for «detaljforbedring» eller «gjenopprett detaljer», og legg til subtil korndannelse etterpå. -
Hvis kantene gløder.
Skru ned skarpheten, sjekk alternativene for haloundertrykkelse. -
Hvis bildet ser for «AI» ut,
bør du gå mer konservativt. Noen ganger er det beste rett og slett … mindre.
Og ikke oppskaler 8x bare fordi du kan. En ren 2x eller 4x er ofte det optimale. Utover det ber du modellen om å skrive fanfiction om pikslene dine 📖😂
Etikk, autentisitet og det vanskelige spørsmålet om «sannhet» 🧭😬
AI-oppskalering visker ut en linje:
-
Restaurering innebærer å gjenopprette det som var der
-
Forbedring innebærer å legge til det som ikke var
Med personlige bilder er det vanligvis greit (og fint). Med journalistikk, juridisk bevismateriale, medisinsk avbildning eller hva som helst der troskap er viktig ... må du være forsiktig ( OSAC/NIST: Standardveiledning for rettsmedisinsk digital bildehåndtering , SWGDE-retningslinjer for rettsmedisinsk bildeanalyse ).
En enkel regel:
-
Hvis innsatsen er høy, bør du behandle AI-oppskalering som illustrerende , ikke endelig.
Avsløring er også viktig i profesjonelle sammenhenger. Ikke fordi AI er ondt, men fordi publikum fortjener å vite om detaljer ble rekonstruert eller fanget opp. Det er bare ... respektfullt.
Avsluttende notater og en rask oppsummering 🧡✅
Så, slik fungerer AI-oppskalering : modeller lærer hvordan detaljer i høy oppløsning har en tendens til å forholde seg til mønstre i lav oppløsning, og forutsier deretter troverdige ekstra piksler under oppskalering ( Deep Learning for Image Super-resolution: A Survey ). Avhengig av modellfamilien (CNN, GAN, diffusjon, videotemporal), kan denne forutsigelsen være konservativ og trofast ... eller dristig og til tider ustabil 😅
Kort oppsummering
-
Tradisjonell oppskalering strekker piksler ( bikubisk interpolasjon )
-
AI-oppskalering forutsier manglende detaljer ved hjelp av lærte mønstre ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) )
-
Gode resultater kommer fra riktig modell + tilbakeholdenhet
-
Se etter glorier, voksaktige ansikter, gjentatte teksturer og flimring i video ( BasicVSR (CVPR 2021) )
-
Oppskalering er ofte «plausibel rekonstruksjon», ikke perfekt sannhet ( SRGAN , ESRGAN )
Hvis du vil, fortell meg hva du oppskalerer (ansikter, gamle bilder, video, anime, tekstskanninger), så skal jeg foreslå en innstillingsstrategi som pleier å unngå de vanlige fallgruvene med «AI-utseende» 🎯🙂
Vanlige spørsmål
AI-oppskalering og hvordan det fungerer
AI-oppskalering (ofte kalt «superoppløsning») øker et bildes oppløsning ved å forutsi manglende høyoppløselige detaljer fra mønstre lært under trening. I stedet for å bare strekke piksler som bikubisk interpolasjon, studerer en modell kanter, teksturer, flater og tekstlignende streker, og genererer deretter nye pikseldata som samsvarer med disse lærte mønstrene. Det handler mindre om å «gjenopprette virkeligheten» og mer om å «komme med en troverdig gjetning» som leses naturlig.
AI-oppskalering versus bikubisk eller tradisjonell endring av størrelse
Tradisjonelle oppskaleringsmetoder (som bikubisk) interpolerer hovedsakelig mellom eksisterende piksler, og jevner ut overganger uten å skape ekte nye detaljer. AI-oppskalering tar sikte på å rekonstruere en plausibel struktur ved å gjenkjenne visuelle signaler og forutsi hvordan høyoppløselige versjoner av disse signalene pleier å se ut. Det er derfor AI-resultater kan føles dramatisk skarpere, og også hvorfor de kan introdusere artefakter eller «finne opp» detaljer som ikke var tilstede i kilden.
Hvorfor ansikter kan se voksaktige eller altfor glatte ut
Voksede ansikter kommer vanligvis fra aggressiv støyfjerning og utjevning kombinert med skjerping som fjerner naturlig hudtekstur. Mange verktøy behandler støy og fin tekstur på samme måte, så å «rense» et bilde kan slette porer og subtile detaljer. En vanlig tilnærming er å redusere støyfjerning og skjerping, bruke en ansiktsbevarende modus hvis tilgjengelig, og deretter gjeninnføre et snev av korn slik at resultatet føles mindre plastisk og mer fotografisk.
Vanlige AI-oppskaleringsartefakter å se etter
Typiske varselstegn inkluderer glorier rundt kantene, gjentatte teksturmønstre (som kopier-lim-klosser), sprø mikrokontrast og tekst som blir til «nesten bokstaver». I diffusjonsbaserte arbeidsflyter kan du også se detaljdrift der små funksjoner subtilt endres. For video er flimring og krypende detaljer på tvers av bilder store røde flagg. Hvis det bare ser bra ut ved ekstrem zoom, er innstillingene sannsynligvis for aggressive.
Hvordan GAN-, CNN- og diffusjonsoppskalere har en tendens til å variere i resultater
CNN-basert superoppløsning har en tendens til å være stødigere og mer forutsigbar, men den kan se «bearbeidet» ut hvis den presses hardt. GAN-baserte alternativer (ESRGAN-stil) produserer ofte mer slagkraftig tekstur og opplevd skarphet, men de kan hallusinere feil detaljer, spesielt på ansikter. Diffusjonsbasert oppskalering kan generere vakre, troverdige detaljer, men de kan avvike fra den opprinnelige strukturen hvis veilednings- eller styrkeinnstillingene er for sterke.
En praktisk innstillingsstrategi for å unngå et «for AI»-utseende
Start konservativt: skaler opp 2× eller 4× før du går til ekstreme faktorer. Hvis ansiktene ser plastiske ut, reduser støyreduksjon og skarphet og prøv en ansiktsbevisst modus. Hvis teksturene blir for intense, reduser detaljforbedringen og vurder å legge til subtil kornighet etterpå. Hvis kantene gløder, reduser skarpheten og sjekk halo- eller artefaktundertrykkelse. I mange pipelines vinner «mindre» fordi det bevarer troverdig realisme.
Håndtering av gamle skanninger eller sterkt JPEG-komprimerte bilder før oppskalering
Komprimerte bilder er vanskelige fordi modeller kan behandle blokkartefakter som ekte tekstur og forsterke dem. En vanlig arbeidsflyt er fjerning eller deblokkering av artefakter først, deretter oppskalering, og deretter lett skjerping bare om nødvendig. For skanninger kan forsiktig opprydding hjelpe modellen med å fokusere på den faktiske strukturen i stedet for skade. Målet er å redusere "falske tekstursignaler" slik at oppskalereren ikke blir tvunget til å komme med sikre gjetninger fra støyende input.
Hvorfor videooppskalering er vanskeligere enn fotooppskalering
Videooppskalering må være konsistent på tvers av bilder, ikke bare bra på ett stillbilde. Hvis detaljer flimrer fra bilde til bilde, blir resultatet raskt distraherende. Videofokuserte tilnærminger bruker tidsinformasjon fra nærliggende bilder for å stabilisere rekonstruksjon og unngå skimrende artefakter. Mange arbeidsflyter inkluderer også støyfjerning, fjerning av interlacing for visse kilder og valgfri gjeninnføring av korn, slik at hele sekvensen føles sammenhengende snarere enn kunstig skarp.
Når oppskalering av kunstig intelligens ikke er passende eller risikabelt å stole på
Oppskalering av kunstig intelligens behandles best som forbedring, ikke bevis. I viktige sammenhenger som journalistikk, juridisk bevisførsel, medisinsk avbildning eller rettsmedisinsk arbeid, kan generering av «troverdige» piksler være misvisende fordi det kan legge til detaljer som ikke ble fanget opp. En tryggere framing er å bruke den illustrerende og avsløre at en kunstig intelligens-prosess rekonstruerte detaljer. Hvis gjengivelse er kritisk, behold originalene og dokumenter hvert behandlingstrinn og hver innstilling.
Referanser
-
arXiv – Dyp læring for superoppløsning av bilder: En undersøkelse – arxiv.org
-
arXiv – Superoppløsning av bilder ved bruk av dype konvolusjonsnettverk (SRCNN) – arxiv.org
-
arXiv - Ekte-ESRGAN - arxiv.org
-
arXiv - ESRGAN - arxiv.org
-
arXiv - SR3 - arxiv.org
-
NVIDIA-utvikler – NVIDIA DLSS – developer.nvidia.com
-
AMD GPUOpen – FidelityFX Super Resolution 2 – gpuopen.com
-
The Computer Vision Foundation (CVF) Åpen tilgang - BasicVSR: Søket etter essensielle komponenter i videosuperoppløsning (CVPR 2021) - openaccess.thecvf.com
-
arXiv – Generative adversarielle nettverk – arxiv.org
-
arXiv - SRGAN - arxiv.org
-
arXiv - Perseptuelle tap (Johnson et al., 2016) - arxiv.org
-
GitHub – Real-ESRGAN-repo (flisalternativer) – github.com
-
Wikipedia - Bikubisk interpolasjon - wikipedia.org
-
Topaz Labs - Topaz Photo - topazlabs.com
-
Topaz Labs - Topaz Video - topazlabs.com
-
Adobes hjelpesenter – Adobe Enhance > Superoppløsning – helpx.adobe.com
-
NIST / OSAC - Standardveiledning for rettsmedisinsk digital bildehåndtering (versjon 1.0) - nist.gov
-
SWGDE – Retningslinjer for rettsmedisinsk bildeanalyse – swgde.org