Har AI gått for langt?

Har AI gått for langt?

Kort svar: AI har gått for langt når den brukes i viktige beslutninger, overvåking eller overtalelse uten klare grenser, informert samtykke og en reell rett til å anke. Den krysser grensen igjen når deepfakes og skalerbare svindelforsøk får tillit til å føles som et sjansespill. Hvis folk ikke kan se at AI spilte en rolle, ikke kan forstå hvorfor en beslutning ble tatt som den gjorde, eller ikke kan velge bort det, er det allerede for langt.

Viktige konklusjoner:

Grenser: Definer hva systemet ikke kan gjøre, spesielt når usikkerheten er høy.

Ansvarlighet: Sørg for at mennesker kan overstyre resultater uten straff eller tidspressfeller.

Åpenhet: Fortell folk når AI er involvert og hvorfor den tok sine beslutninger.

Ankemulighet: Tilby raske, gjennomførbare ankemuligheter og tydelige måter å korrigere feil data på.

Motstand mot misbruk: Legg til opprinnelse, hastighetsgrenser og kontroller for å begrense svindel og misbruk.

«Har AI gått for langt?»

Det merkelige er at grenseoverskridelsen ikke alltid er åpenbar. Noen ganger er det høylytt og prangende, som en deepfake-svindel. ( FTC , FBI ) ​​Andre ganger er det stille – en automatisert avgjørelse som dytter livet ditt sidelengs uten noen forklaring, og du innser ikke engang at du har blitt «scoret». ( UK ICO , GDPR Art. 22 )

Så ... har AI gått for langt? Noen steder, ja. Andre steder har den ikke gått langt nok – fordi den brukes uten de usexy, men essensielle sikkerhetsskinnene som får verktøy til å oppføre seg som verktøy i stedet for ruletthjul med et brukervennlig brukergrensesnitt. 🎰🙂 ( NIST AI RMF 1.0 , EUs AI-lov )

Artikler du kanskje vil lese etter denne:

🔗 Hvorfor AI kan være skadelig for samfunnet
Viktige sosiale risikoer: skjevhet, jobber, personvern og maktkonsentrasjon.

🔗 Er AI dårlig for miljøet? Skjulte konsekvenser
Hvordan opplæring, datasentre og energibruk øker utslippene.

🔗 Er AI bra eller dårlig? Fordeler og ulemper
Balansert oversikt over fordeler, risikoer og avveininger i den virkelige verden.

🔗 Hvorfor AI anses som dårlig: den mørke siden
Utforsker misbruk, manipulasjon, sikkerhetstrusler og etiske bekymringer.


Hva folk mener når de sier «Har AI gått for langt?» 😬

De fleste spør ikke om AI er «bevisst» eller «tar over». De peker på en av disse:

  • KI brukes der den ikke burde brukes. (Spesielt viktige avgjørelser.) ( EUs KI-lov vedlegg III , GDPR artikkel 22 )

  • AI brukes uten samtykke. (Dine data, stemmen din, ansiktet ditt ... overraskelse.) ( UK ICO , GDPR Art. 5 )

  • AI blir for god til å manipulere oppmerksomhet. (Feeder + personalisering + automatisering = sticky.) ( OECD AI-prinsipper )

  • AI gjør at sannheten føles valgfri. (Deepfakes, falske anmeldelser, syntetiske «eksperter».) ( Europakommisjonen , FTC , C2PA )

  • AI konsentrerer makt. (Noen få systemer former hva alle ser og kan gjøre.) ( UK CMA )

Det er kjernen i «Har AI gått for langt?». Det er ikke ett enkelt øyeblikk. Det er en haug med insentiver, snarveier og «vi fikser det senere»-tenkning – som, la oss være ærlige, har en tendens til å oversettes til «vi fikser det etter at noen blir skadet». 😑

Har AI gått for langt infografikk

Den ikke så hemmelige sannheten: AI er en multiplikator, ikke en moralsk aktør 🔧✨

AI våkner ikke og bestemmer seg for å være skadelig. Mennesker og organisasjoner sikter mot det. Men det multipliserer det du mater det med:

  • Hjelpsom hensikt blir enormt nyttig (oversettelse, tilgjengelighet, oppsummering, medisinsk mønstergjenkjenning).

  • Slurvete intensjon blir massivt slurvete (skjevhet i stor skala, automatisering av feil).

  • Onde hensikter blir massivt dårlige (svindel, trakassering, propaganda, etterligning av personopplysninger).

Det er som å gi en megafon til en smårolling. Noen ganger synger den lille ... noen ganger skriker den rett inn i sjelen din. Ikke en perfekt metafor – litt tullete – men poenget treffer blink 😅📢.


Hva gjør en god versjon av AI til en vanlig versjon i hverdagen? ✅🤝

En «god versjon» av AI defineres ikke av hvor smart den er. Den defineres av hvor godt den oppfører seg under press, usikkerhet og fristelse (og mennesker er veldig fristet av billig automatisering). ( NIST AI RMF 1.0 , OECD )

Her er hva jeg ser etter når noen hevder at deres bruk av AI er ansvarlig:

1) Tydelige grenser

  • Hva har systemet lov til å gjøre?

  • Hva er det uttrykkelig forbudt å gjøre?

  • Hva skjer når man er usikker?

2) Menneskelig ansvarlighet som er ekte, ikke dekorativ

En menneskelig «gjennomgang» av resultater har bare betydning hvis:

  • de forstår hva de vurderer, og

  • de kan overstyre det uten å bli straffet for å bremse ting ned.

3) Forklarbarhet på riktig nivå

Ikke alle trenger matematikken. Folk trenger:

  • hovedårsakene bak en beslutning,

  • hvilke data som ble brukt,

  • hvordan man anker, korrigerer eller reserverer seg mot dette. ( UK ICO )

4) Målbar ytelse – inkludert feilmoduser

Ikke bare «nøyaktighet», men:

  • hvem det mislykkes på,

  • hvor ofte det feiler stille,

  • Hva skjer når verden forandrer seg? ( NIST AI RMF 1.0 )

5) Personvern og samtykke som ikke er «begravd i innstillinger»

Hvis samtykke krever en skattejakt gjennom menyer ... er det ikke samtykke. Det er et smutthull med ekstra trinn 😐🧾. ( GDPR Art. 5 , UK ICO )


Sammenligningstabell: praktiske måter å hindre at AI går for langt 🧰📊

Nedenfor er «toppalternativer» i den forstand at de er vanlige rekkverk eller operative verktøy som endrer resultater (ikke bare vibrasjoner).

Verktøy / alternativ Publikum Pris Hvorfor det fungerer
Gjennomgang av menneskelig integrert teknologi ( EUs kunstig intelligens-lov ) Lag som tar viktige avgjørelser ££ (tidskostnad) Bremer dårlig automatisering. Mennesker kan også legge merke til merkelige kanttilfeller, noen ganger ..
Klageprosess på avgjørelser ( GDPR artikkel 22 ) Brukere påvirket av AI-beslutninger Gratis-aktig Legger til rettssikkerhet. Folk kan korrigere feil data – høres grunnleggende ut fordi det er grunnleggende
Revisjonslogger + sporbarhet ( NIST SP 800-53 ) Samsvar, drift, sikkerhet £-££ Lar deg svare på «hva skjedde?» etter en feil, i stedet for å trekke på skuldrene
Modellevaluering + skjevhetstesting ( NIST AI RMF 1.0 ) Produkt- + risikoteam varierer mye Oppdager forutsigbar skade tidlig. Ikke perfekt, men bedre enn å gjette
Red-team-testing ( NIST GenAI-profil ) Sikkerhet + trygghet, folkens £££ Simulerer misbruk før ekte angripere gjør det. Ubehagelig, men verdt det 😬
Dataminimering ( UK ICO ) Alle, ærlig talt £ Mindre data = mindre rot. Også færre sikkerhetsbrudd, færre pinlige samtaler
Innholdsopprinnelsessignaler ( C2PA ) Plattformer, medier, brukere £-££ Bidrar til å bekrefte «lagde et menneske dette?» – ikke idiotsikkert, men reduserer kaos
Hastighetsgrenser + tilgangskontroller ( OWASP ) AI-leverandører + bedrifter £ Stopper skalering av misbruk umiddelbart. Som en fartsdump for uønskede aktører

Jepp, bordet er litt ujevnt. Sånn er livet. 🙂


AI i viktige beslutninger: når det går for langt 🏥🏦⚖️

Det er her ting raskt blir alvor.

KI innen helsevesen , finans , bolig , sysselsetting , utdanning , innvandring , strafferett – dette er systemer der: ( EUs KI-lov vedlegg III , FDA )

  • en feil kan koste noen penger, frihet, verdighet eller sikkerhet,

  • og den berørte personen har ofte begrenset makt til å slå tilbake.

Den store risikoen er ikke at «KI gjør feil». Den store risikoen er at KI-feil blir til politikk . ( NIST AI RMF 1.0 )

Hvordan «for langt» ser ut her

  • Automatiserte avgjørelser uten forklaring: «datamaskinen sier nei.» ( UK ICO )

  • «Risikopoeng» behandlet som fakta i stedet for gjetninger.

  • Mennesker som ikke kan overstyre resultater fordi ledelsen ønsker fart.

  • Data som er rotete, partiske, utdaterte eller rett og slett feil.

Det som ikke bør være forhandlingsbart

  • Rett til å anke (raskt, forståelig, ikke en labyrint). ( GDPR artikkel 22 , UK ICO )

  • Rett til å vite at kunstig intelligens var involvert. ( Europakommisjonen )

  • Menneskelig gjennomgang for konsekvensutfall. ( NIST AI RMF 1.0 )

  • Kvalitetskontroll på data – fordi søppel inn, søppel ut fortsatt er smertelig sant.

Hvis du prøver å trekke en ren grense, her er en:
Hvis et AI-system kan forandre noens liv vesentlig, trenger det den samme alvorsfølelsen vi forventer av andre former for autoritet. Ingen «betatesting» på folk som ikke registrerte seg. 🚫


Deepfakes, svindel og den langsomme døden til «jeg stoler på øynene mine» 👀🧨

Dette er den delen som gjør at hverdagen føles … glatt.

Når AI kan generere:

  • en talemelding som høres ut som et familiemedlem ( FTC , FBI )

  • en video av en offentlig person som «sier» noe,

  • en flom av falske anmeldelser som ser autentiske nok ut ( FTC )

  • en falsk LinkedIn-profil med falsk jobbhistorikk og falske venner …

...det muliggjør ikke bare svindel. Det svekker det sosiale limet som lar fremmede koordinere. Og samfunnet drives av fremmede som koordinerer. 😵💫

«For langt unna» er ikke bare falskt innhold

Det er asymmetrien :

  • Det er billig å lage løgner.

  • Det er dyrt og tregt å bekrefte sannheten.

  • Og folk flest er opptatte, slitne og skroller.

Hva hjelper (litt)

  • Proveniensmarkører for medier. ( C2PA )

  • Friksjon for viralitet - bremser umiddelbar massedeling.

  • Bedre identitetsverifisering der det er viktig (finans, offentlige tjenester).

  • Grunnleggende «verifisering utenfor båndet»-vaner for enkeltpersoner (ringe tilbake, bruke et kodeord, bekrefte via en annen kanal). ( FTC )

Ikke glamorøst. Men det er heller ikke sikkerhetsbelter, og jeg er ganske knyttet til dem, personlig. 🚗


Overvåkningskrep: når AI stille og rolig gjør alt om til en sensor 📷🫥

Denne eksploderer ikke som en deepfake. Den bare sprer seg.

AI gjør det enkelt å:

  • identifisere ansikter i folkemengder, ( EUs AI-lov , NIST FRVT )

  • spore bevegelsesmønstre,

  • utlede følelser fra video (ofte dårlig, men sikkert), ( Barrett et al., 2019 , EUs AI-lov )

  • forutsi «risiko» basert på atferd … eller stemningen i nabolaget ditt.

Og selv når den er unøyaktig, kan den fortsatt være skadelig fordi den kan rettferdiggjøre intervensjon. En feilaktig prediksjon kan fortsatt utløse reelle konsekvenser.

Den ubehagelige biten

AI-drevet overvåking kommer ofte innpakket i en sikkerhetshistorie:

  • «Det er for å forhindre svindel.»

  • «Det er for sikkerhetens skyld.»

  • «Det er for brukeropplevelsens skyld.»

Noen ganger er det sant. Noen ganger er det også en beleilig unnskyldning for å bygge systemer som er veldig vanskelige å demontere senere. Som å installere en enveisdør i ditt eget hus fordi det virket effektivt på den tiden. Igjen, ikke en perfekt metafor – litt latterlig – men du føler det. 🚪😅

Hvordan «bra» ser ut her

  • Strenge grenser for oppbevaring og deling.

  • Fjern valgmuligheter.

  • Smale brukstilfeller.

  • Uavhengig tilsyn.

  • Ingen «følelsesdeteksjon» brukt til straff eller portvakt. Vær så snill. 🙃 ( EUs AI-lov )


Arbeid, kreativitet og det stille avferdighetsproblemet 🧑💻🎨

Det er her debatten blir personlig fordi den berører identitet.

AI kan gjøre folk mer produktive. Det kan også få folk til å føle seg erstattelige. Begge deler kan være sant, samtidig, i samme uke. ( OECD , WEF )

Der det er genuint nyttig

  • Utarbeide rutinetekst slik at folk kan fokusere på å tenke.

  • Kodehjelp for repeterende mønstre.

  • Tilgjengelighetsverktøy (teksting, oppsummering, oversettelse).

  • Idémyldring når du står fast.

Der det går for langt

  • Erstatte roller uten overgangsplaner.

  • Bruk av AI til å presse produksjonen samtidig som lønningene flates ut.

  • Å behandle kreativt arbeid som uendelig med gratis treningsdata, og så trekke på skuldrene. ( US Copyright Office , UK GOV.UK )

  • Å få juniorroller til å forsvinne – noe som høres effektivt ut helt til du innser at du nettopp har brent stigen som fremtidens eksperter må klatre på.

Nedprioritering er subtilt. Du legger ikke merke til det i hverdagen. Så en dag innser du at ingen på teamet husker hvordan tingen fungerer uten assistenten. Og hvis assistenten tar feil, tar dere bare selvsikkert feil sammen ... noe som er et slags mareritt. 😬


Maktkonsentrasjon: hvem får angi standardinnstillingene? 🏢⚡

Selv om AI er «nøytral» (det er den ikke), kan den som kontrollerer den forme:

  • hvilken informasjon som er lett tilgjengelig,

  • hva som blir promotert eller begravet,

  • hvilket språk som er tillatt,

  • hvilken atferd som oppmuntres.

Og fordi AI-systemer kan være dyre å bygge og drifte, har makt en tendens til å konsentrere seg. Det er ikke konspirasjon. Det er økonomi med en teknologisk hettegenser. ( UK CMA )

«For langt»-øyeblikket her

Når misligholdene blir usynlige lover:

  • du vet ikke hva som blir filtrert,

  • du kan ikke undersøke logikken,

  • og du kan realistisk sett ikke velge bort det uten å miste tilgangen til arbeid, lokalsamfunn eller grunnleggende tjenester.

Et sunt økosystem trenger konkurranse, åpenhet og reelle brukervalg. Ellers leier du i bunn og grunn virkeligheten. 😵♂️


En praktisk sjekkliste: hvordan du kan vite om AI går for langt i din verden 🧾🔍

Her er en sjekkliste jeg bruker (og ja, den er ufullkommen):

Hvis du er en privatperson

  • Jeg kan merke det når jeg samhandler med AI. ( Europakommisjonen )

  • Dette systemet presser meg til å dele for mye.

  • Jeg ville vært ok med å håndtere resultatet hvis det er feil på en troverdig måte.

  • Hvis jeg ble svindlet med dette, ville plattformen enten hjulpet meg ... eller så ville den trekke på skuldrene.

Hvis du er en bedrift eller et team

  • Vi bruker AI fordi det er verdifullt, eller fordi det er trendy og ledelsen er urolig.

  • Vi vet hvilke data systemet berører.

  • En berørt bruker kan anke utfallet. ( UK ICO )

  • Mennesker har myndighet til å overstyre modellen.

  • Vi har hendelsesplaner for AI-feil.

  • Vi overvåker avdrift, misbruk og uvanlige kanttilfeller.

Hvis du svarte «nei» på en haug med disse, betyr ikke det at du er ond. Det betyr at du er i den normale menneskelige tilstanden «vi sendte det og håpet». Men håp er dessverre ikke en strategi. 😅


Avsluttende notater 🧠✅

Så ... Har AI gått for langt?
Den har gått for langt der den brukes uten ansvarlighet , spesielt i viktige beslutninger, masseovertalelse og overvåking. Den har også gått for langt der den undergraver tillit – for når tilliten brytes, blir alt dyrere og mer fiendtlig, sosialt sett. ( NIST AI RMF 1.0 , EUs AI-lov )

Men AI er ikke iboende dømt til å mislykkes eller iboende perfekt. Det er en kraftig multiplikator. Spørsmålet er om vi bygger rekkverk like aggressivt som vi bygger kapasitetene.

Kort oppsummering:

  • AI er fint som verktøy.

  • Det er farlig som en uansvarlig autoritet.

  • Hvis noen ikke kan anke, forstå eller velge bort – det er der «for langt» begynner. 🚦 ( GDPR Art. 22 , UK ICO )


Vanlige spørsmål

Har AI gått for langt i hverdagen?

Mange steder har AI gått for langt fordi den har begynt å gli inn i beslutninger og samhandling uten klare grenser eller ansvarlighet. Problemet er sjelden at «AI eksisterer»; det er AI som stille og rolig blir sydd inn i ansettelser, helsevesen, kundeservice og feeder med tynt tilsyn. Når folk ikke kan se at det er AI, ikke kan bestride resultater eller ikke kan velge bort det, slutter det å føles som et verktøy og begynner å føles som et system.

Hvordan ser det ut som at «KI går for langt» i viktige beslutninger?

Det ser ut som om KI brukes innen helsevesen, finans, bolig, sysselsetting, utdanning, innvandring eller strafferett uten sterke rekkverk. Hovedproblemet er ikke at modeller gjør feil; det er at disse feilene stivner til politikk og blir vanskelige å utfordre. Det er i «datamaskinen sier nei»-beslutninger med tynne forklaringer og ingen meningsfulle appeller som skaden raskt øker.

Hvordan kan jeg vite om en automatisert avgjørelse påvirker meg, og hva kan jeg gjøre?

Et vanlig tegn er et plutselig utfall du ikke kan forklare: en avvisning, begrensning eller en «risikovurdering»-vibe uten noen klar grunn. Mange systemer bør opplyse om når AI spilte en vesentlig rolle, og du bør kunne be om hovedårsakene bak avgjørelsen og trinnene for å anke den. I praksis bør du be om en menneskelig gjennomgang, korrigere eventuelle feilaktige data og presse på for en enkel måte å reservere seg mot dette på.

Har AI gått for langt med personvern, samtykke og databruk?

Det skjer ofte når samtykke blir en skattejakt og datainnsamlingen utvides «bare i tilfelle». Artikkelens kjernepoeng er at personvern og samtykke ikke har mye vekt hvis de er begravd i sammenhenger eller tvunget gjennom vage begreper. En sunnere tilnærming er dataminimering: samle mindre, behold mindre og gjør valgene umiskjennelige slik at folk ikke blir overrasket senere.

Hvordan endrer deepfakes og AI-svindel hva «tillit» betyr på nett?

De får sannheten til å føles valgfri ved å senke kostnadene ved å produsere overbevisende falske stemmer, videoer, anmeldelser og identiteter. Asymmetrien er problemet: det er billig å generere løgner, mens det er sakte og slitsomt å verifisere sannheten. Praktiske forsvarsmekanismer inkluderer provenienssignaler for media, å redusere viral deling, sterkere identitetskontroller der det er viktig, og «verifisere utenfor båndet»-vaner som å ringe tilbake eller bruke et delt kodeord.

Hva er de mest praktiske rekkverkene for å hindre at AI går for langt?

Tiltak som endrer utfall inkluderer ekte, menneskelig gjennomgang av viktige ankesaker, tydelige ankeprosesser og revisjonslogger som kan svare på «hva skjedde?» etter feil. Modellevaluering og skjevhetstesting kan fange opp forutsigbare skader tidligere, mens testing i et «red-team» simulerer misbruk før angripere gjør det. Hastighetsgrenser og tilgangskontroller bidrar til å forhindre at misbruk skaleres umiddelbart, og dataminimering reduserer risikoen på tvers av alle områder.

Når går AI-drevet overvåking over grensen?

Det går over grensen når alt som standard blir til en sensor: ansiktsgjenkjenning i folkemengder, sporing av bevegelsesmønstre eller sikker «følelsesdeteksjon» brukt til straff eller portvakt. Selv unøyaktige systemer kan forårsake alvorlig skade hvis de rettferdiggjør inngrep eller nektelse av tjenester. God praksis ser ut som snevre brukstilfeller, strenge oppbevaringsgrenser, meningsfulle avmeldinger, uavhengig tilsyn og et bestemt «nei» til ustabile følelsesbaserte vurderinger.

Gjør AI folk mer produktive – eller avferdigheterer det arbeidet i stillhet?

Begge deler kan være sant samtidig, og det er nettopp denne spenningen som er poenget. KI kan hjelpe med rutinemessig utkasting, repeterende kodemønstre og tilgjengelighet, og frigjøre mennesker til å fokusere på tenkning på høyere nivå. Det går for langt når det erstatter roller uten overgangsplaner, presser lønninger, behandler kreativt arbeid som gratis opplæringsdata eller fjerner juniorroller som bygger fremtidig ekspertise. Nedvurdering av ferdigheter forblir subtil inntil team ikke kan fungere uten assistenten.

Referanser

  1. Nasjonalt institutt for standarder og teknologi (NIST)Rammeverk for risikostyring for kunstig intelligens (AI RMF 1.0)nist.gov

  2. Den europeiske union - EUs lov om kunstig intelligens (forordning (EU) 2024/1689) - Official Tidende (engelsk) - europa.eu

  3. Europakommisjonen - Regelverk for KI (EUs KI-lovs retningslinjer) - europa.eu

  4. EUs AI-lovgivningstjenesteVedlegg III (Høyrisiko-AI-systemer)europa.eu

  5. EU - Regler for pålitelig kunstig intelligens i EU (sammendrag av EUs KI-lov) - europa.eu

  6. UK Information Commissioner's Office (ICO)Hva er automatisert individuell beslutningstaking og profilering?ico.org.uk

  7. UK Information Commissioner's Office (ICO)Hva sier den britiske GDPR om automatisert beslutningstaking og profilering?ico.org.uk

  8. UK Information Commissioner's Office (ICO)Automatisert beslutningstaking og profilering (veiledningssenter)ico.org.uk

  9. UK Information Commissioner's Office (ICO)Dataminimering (veiledning om britiske GDPR-prinsipper)ico.org.uk

  10. GDPR-info.eu - Artikkel 22 GDPR - gdpr-info.eu

  11. GDPR-info.eu - Artikkel 5 GDPR - gdpr-info.eu

  12. US Federal Trade Commission (FTC)Svindlere bruker kunstig intelligens for å forbedre familiens kriseordningerftc.gov

  13. Den amerikanske føderale handelskommisjonen (FTC)Svindlere bruker falske nødsituasjoner for å stjele pengene dineftc.gov

  14. Den amerikanske føderale handelskommisjonen (FTC)Endelig regel som forbyr falske anmeldelser og attester (pressemelding)ftc.gov

  15. Federal Bureau of Investigation (FBI)FBI advarer om økende trussel fra nettkriminelle som bruker kunstig intelligensfbi.gov

  16. Organisasjonen for økonomisk samarbeid og utvikling (OECD) - OECDs prinsipper for kunstig intelligens - oecd.ai

  17. OECD - Anbefaling fra Rådet for kunstig intelligens (OECD/LEGAL/0449) - oecd.org

  18. EuropakommisjonenRetningslinjer og praksiskodeks for transparente AI-systemer (FAQ)europa.eu

  19. Koalisjonen for innholds proveniens og autentisitet (C2PA)Spesifikasjoner v2.3c2pa.org

  20. UK Competition and Markets Authority (CMA)Modeller for grunnleggende KI: første rapportgov.uk

  21. Det amerikanske mat- og legemiddeltilsynet (FDA)Medisinske enheter drevet av kunstig intelligensfda.gov

  22. NISTSikkerhets- og personvernkontroller for informasjonssystemer og organisasjoner (SP 800-53 Rev. 5)nist.gov

  23. NISTGenerativ AI-profil (NIST.AI.600-1, ipd)nist.gov

  24. Open Worldwide Application Security Project (OWASP)Ubegrenset ressursforbruk (API-sikkerhet topp 10, 2023)owasp.org

  25. NISTDemografi for leverandørtest av ansiktsgjenkjenning (FRVT)nist.gov

  26. Barrett et al. (2019) - Artikkel (PMC) - nih.gov

  27. OECDBruk av kunstig intelligens på arbeidsplassen (PDF)oecd.org

  28. Verdens økonomiske forum (WEF) - Rapport om fremtidens jobber 2025 - Sammendrag - weforum.org

  29. US Copyright Office - Opphavsrett og kunstig intelligens, del 3: Generativ AI-opplæringsrapport (forhåndsversjon) (PDF) - copyright.gov

  30. Den britiske regjeringen (GOV.UK)Opphavsrett og kunstig intelligens (høring)gov.uk

Finn den nyeste AI-en i den offisielle AI-assistentbutikken

Om oss

Tilbake til bloggen