🏥 Introduksjon av OpenAI for helsevesenet ↗
OpenAI beveget seg mer avgjørende inn på sykehus og klinikker med en pakke med «sikre AI-produkter» som var ment å redusere administrativ byrde og hjelpe organisasjoner med å bygge kliniske verktøy uten å gjøre compliance til et sirkus. Hovedinnlegget er ChatGPT for Healthcare, innrammet som et bedriftsarbeidsområde der klinikere, administratorer og forskere kan bruke AI med strengere kontroller.
En stor del av løftet er beskyttelsesmekanismer – tenk BAA-er, revisjonslogger, kundeadministrerte krypteringsnøkler og standardinnstillinger som ikke brukes til å trene opp for innhold som deles av organisasjoner. Det koker ned til: «ja, du kan bruke kraftige modeller, men vær så snill å ikke lekke pasientdata ved et uhell.»
De lente seg også på praktisk implementering: tidlig utrulling på tvers av store helsesystemer, pluss API-brukstilfeller som journaloppsummering, behandlingskoordinering og arbeidsflyter ved utskrivning. Det er ambisiøst ... og også på en måte uunngåelig, eller det virker i hvert fall slik.
🛒 Microsoft driver detaljhandelen fremover med agentiske AI-funksjoner som driver intelligent automatisering for alle detaljhandelsfunksjoner ↗
Microsoft gikk inn i «agenter overalt» for detaljhandel – ikke bare chatboter, men systemer som kan utføre handlinger på tvers av merchandising, markedsføring, butikkdrift og ordreoppfyllelse. Stemningen er: slutt å sette sammen dashbord og la programvare håndtere de kjedelige delene.
Det mest prangende er Copilot Checkout, som har som mål å la kunder fullføre kjøp i Copilot uten å hoppe til eksterne nettsteder – «ingen viderekobling, ingen friksjon», med partnere som PayPal, Shopify og Stripe. Det er enten elegant ... eller litt urovekkende, avhengig av hvor mye du liker det åpne nettet.
De introduserte også Brand Agents for Shopify (merkevarestemmede shoppingassistenter trent på kataloger) og Copilot Studio-maler for personlig tilpasset shopping, katalogberikelse (automatisk uttrekking av produktattributter fra bilder) og butikkdrift (svar på lager, arbeidsflytorkestrering, bemanningsanbefalinger). Det er detaljhandel som en semi-autonom organisme – en klumpete metafor, men den passer.
🕵️♀️ Italias personverntilsyn advarer Grok om dypforfalsket AI-innhold ↗
Italias datatilsyn varslet produsenter av kunstig intelligens – inkludert Grok – om risikoen for deepfake-bilder, spesielt når ekte menneskers likheter blir remikset uten samtykke. Advarselen havner midt i det dunkle skjæringspunktet mellom «kul generativ teknologi» og «å nei, det er en forbrytelse»
Regulatoren fremhevet økningen i ikke-samtykkende seksualiserte bilder og de bredere personvernkonsekvensene fra verktøy som kan generere endrede bilder eller stemmer (inkludert misbruk i «avkledningsstil»). Det er dystert – og det kommer ikke til å forsvinne av seg selv.
De pekte også på koordinering av håndheving på tvers av landegrensene i EU, som er en høflig måte å si det på: leverandører bør sannsynligvis legge til sikkerhetstiltak før regulatorer legger til konsekvenser.
🧧 Kina skal granske Metas oppkjøp av kunstig intelligens-oppstartsbedriften Manus ↗
Kina sa at de vil vurdere og etterforske Metas oppkjøp av Manus, en AI-oppstartsbedrift som er basert i Singapore, men har kinesiske røtter – og plutselig er avtalen ikke bare bedriftsstrategi, det er geopolitikk med ekstra papirarbeid.
Granskingen dreier seg om hvorvidt grenseoverskridende teknologioverføring, dataflyt og fusjoner og oppkjøp er i samsvar med kinesiske regler. Meta har sagt at Manus ikke vil beholde kinesiske eierinteresser etter avtalen, og at oppstartsselskapet vil avvikle driften i Kina, noe som … kan roe ned ting, eller kanskje ikke.
Manus' «generelle» agent blir fremstilt som i stand til å utføre arbeid i flere trinn autonomt, og selskapet har snakket om betydelige, gjentakende inntekter. Denne kombinasjonen – dyktig agent + fremdrift – er i utgangspunktet en magnet for regulatorers oppmerksomhet.
📧 Gmail går inn i Gemini-æraen ↗
Google gjør Gmail om til en mer proaktiv AI-assistent, med AI-oversikter som oppsummerer lange tråder og svarer på spørsmål om innboksen din i naturlig språk. Det er «slutt å søke som en goblin, bare spør normalt»-tilnærmingen – og ja, det høres praktisk ut.
De ruller også ut skrivehjelpemidler som Hjelp meg å skrive, oppdaterte forslag til svar og en korrekturlesingsfunksjon for dypere tone/grammatikk. Mye av dette er posisjonert som bredt tilgjengelig, mens noe av kraften i å «spørre innboksen din om hva som helst» ligger bak abonnentnivåene.
Så har vi «AI-innboks», som prøver å avdekke det som betyr noe – regninger, påminnelser, VIP-meldinger – ved å utlede prioritet fra mønstre. Nyttig, sannsynligvis. Også litt som å gi e-posten din en liten manager som kan bli litt sjefete.
🗳️ Programvare som bekjemper deepfakes skal testes i forbindelse med skotske og walisiske valg ↗
Valgfunksjonærer i Skottland samarbeider med innenriksdepartementet om et pilotprosjekt for å oppdage AI-genererte deepfake-videoer og -bilder før de kan gjøre reell skade i valgkamper. Planen er i bunn og grunn: oppdage, varsle interessenter (inkludert politi og kandidater), informere offentligheten, og deretter presse plattformer til å fjerne innholdet.
Haken – og den er stor – er at fjerning fortsatt i stor grad er frivillig, så valgkommisjonen presser på for juridisk håndhevbare fullmakter. Avsløring uten håndheving er som å ta med en paraply med hull ... bedre enn ingenting, men du blir fortsatt gjennomvåt.
De påpekte også bekymringer knyttet til kandidatenes sikkerhet, med særlig vekt på trakassering og «avkledning» av misbruksmønstre knyttet til generative verktøy. Det er deprimerende at dette er en del av valgforberedelsene nå, men her er vi.
Vanlige spørsmål
Hva er ChatGPT for helsevesenet, og hvordan er det forskjellig fra vanlig ChatGPT?
ChatGPT for helsevesenet er posisjonert som et bedriftsmiljø for klinikere, administratorer og forskere som trenger strengere kontroller enn en typisk forbruker-chatbot. Vektleggingen er på å bruke kraftige modeller samtidig som risikoen for utilsiktet eksponering av pasientdata reduseres. Det er utformet som en måte å støtte arbeidsflyter på sykehus og klinikker uten å gjøre styring og tilsyn til en konstant brannøvelse.
Hvordan håndterer OpenAI for helsevesenet samsvar og beskyttelse av pasientdata?
Salgsargumentet fokuserer på beskyttelsesmekanismer bygget for regulerte miljøer, inkludert BAA-er, revisjonslogger, kundeadministrerte krypteringsnøkler og standardinnstillinger som sier at organisasjonsdelt innhold ikke brukes til å trene modeller. I praksis er disse kontrollene ment å hjelpe team med å ta i bruk AI samtidig som risikoen for datalekkasje begrenses. Det er fortsatt opp til organisasjonen å sette retningslinjer og bruke verktøyene ansvarlig, men grunnlinjen er utformet for å være mer bedriftsorientert.
Hva er vanlige bruksområder for AI i helsevesenet på sykehus og klinikker?
De tidlige eksemplene som ble fremhevet inkluderer journaloppsummering, støtte til behandlingskoordinering og assistanse ved utskrivningsarbeidsflyt via API-er. Dette er den typen oppgaver som skaper stor administrativ belastning og kan forsinke overleveringer. I mange prosesser er målet å redusere repeterende dokumentasjonsarbeid og gjøre informasjon enklere å gjennomgå. Kliniske avgjørelser forblir fortsatt hos autoriserte fagfolk, ikke modellen.
Hva betyr «agentisk AI» i Microsofts kunngjøring om detaljhandel?
Microsofts detaljhandelssatsing beskriver agenter som ikke bare svarer på spørsmål, men som kan utføre handlinger på tvers av funksjoner som varehandel, markedsføring, butikkdrift og ordreoppfyllelse. Ideen er å gå utover dashbord og manuelle overleveringer, og la programvare orkestrere flertrinnsarbeid. I praksis innebærer «agentisk» vanligvis systemer som kan utløse arbeidsflyter, hente data og utføre oppgaver – innenfor de tillatelsene og kontrollene en forhandler konfigurerer.
Hva er Copilot Checkout, og hvorfor er «ingen viderekobling» viktig for kunder?
Copilot Checkout beskrives som en måte for kunder å fullføre kjøp i Copilot i stedet for å hoppe til eksterne nettsteder. «Ingen omdirigering» er posisjonert som lavere friksjon: færre trinn, færre sideinnlastinger og en mer kontinuerlig opplevelse. Kunngjøringen refererer til partnere som PayPal, Shopify og Stripe. Om det føles praktisk eller bekymringsfullt, avhenger av hvor mye brukerne stoler på grensesnittet som håndterer kjøpsflyten.
Hvordan fungerer Brand Agents for Shopify og katalogberikelsesmaler i praksis?
Merkeagenter for Shopify presenteres som merkevarestemmede shoppingassistenter som er trent på produktkataloger, med mål om å svare på spørsmål og veilede kjøp i en konsistent tone. Copilot Studio-maler er beskrevet for oppgaver som personlig tilpasset shopping og katalogberikelse, inkludert uttrekking av produktattributter fra bilder. I mange detaljhandelsteam er dette rettet mot det kjedelige arbeidet med å rengjøre produktdata og skalere konsistent kundestøtte på tvers av kanaler.
Hva gjør regulatorer med deepfakes og ikke-samtykkelige AI-bilder i Europa?
Italias personverntilsyn advarte produsenter av AI-verktøy, eksplisitt inkludert Grok, om risikoen for deepfakes – spesielt når ekte menneskers likheter brukes uten samtykke. Bekymringene inkluderer ikke-samtykkelige seksualiserte bilder og misbruk av «avklednings»-stil, samt bredere personvernskade fra endrede bilder eller stemmer. Rapporten bemerker også grenseoverskridende koordinering i EU, noe som signaliserer at håndheving kan involvere flere jurisdiksjoner snarere enn isolerte nasjonale tiltak.
Hvordan forbereder Skottland og Wales seg på deepfakes under valg, og hva er grensene?
Planen som beskrives innebærer et pilotprosjekt for å oppdage AI-genererte deepfake-videoer og -bilder, deretter varsle interessenter (inkludert politi og kandidater), informere offentligheten og presse plattformer til å fjerne innhold. En viktig begrensning er at fjerning i stor grad er frivillig, så deteksjon garanterer ikke fjerning. Valgkommisjonen har argumentert for juridisk håndhevbare fullmakter, siden responshastighet og plattformsamarbeid kan være avgjørende under valgkamper.