🦞 OpenClaw-grunnlegger Steinberger blir med i OpenAI, åpen kildekode-bot blir stiftelse ↗
Peter Steinberger går over til OpenAI for å fremme «personlige agenter», mens OpenClaw i seg selv blir parkert i en stiftelse slik at det forblir åpen kildekode (og støttes). Den oppdelingen er … litt smart – ansett byggeren, hold prosjektet offentlig.
OpenClaws forslag er forfriskende praktisk: e-postsortering, forsikringspapirer, innsjekking av flyreiser, de irriterende administrasjonsoppgavene i livet. Det er også eksplodert på GitHub, og den populariteten har ført til sikkerhetsbekymringer, spesielt hvis folk bruker det uforsiktig.
🪖 Pentagon er «lei» av antropisk motstand mot militærets bruk av Claude AI-modellen, og kan komme til å kutte båndene, ifølge rapport ↗
Kjernestriden: Pentagon ønsker bred tilgang «for alle lovlige formål», og Anthropic prøver fortsatt å holde strenge grenser for fullstendig autonome våpen og masseovervåking. Det er den typen uenighet som høres filosofisk ut helt til noen sier: «Vi kan erstatte dere»
En undervurdert liten ulempe – tjenestemennene ønsker ikke at modellen plutselig skal blokkere arbeidsflyter midt i prosessen, og de ønsker ikke å forhandle om marginale saker for alltid (greit nok ... men også huff). Det er en skikkelig spenning rundt «hvem har nøklene» her, og den er ikke subtil.
🧠 Oppstartsbygger modell for å forutsi menneskelig atferd ↗
Simile sikret seg en investeringsrunde på 100 millioner dollar for å bygge en modell med «begrenset læring» som har som mål å forutsi hva folk kan komme til å gjøre – inkludert, veldig spesifikt, å forutse sannsynlige spørsmål i ting som resultatsamtaler. Smert mål, stor ambisjon, litt uhyggelig kombinasjon.
Tilnærmingen bygger på intervjuer med ekte mennesker pluss data fra atferdsforskning, og kjører deretter simuleringer med AI-agenter som er ment å speile ekte preferanser. Det er som å lage en værmodell for menneskelige beslutninger ... noe som høres umulig ut helt til det ikke er det.
🧑⚖️ Scoop: Det hvite hus presser lovgiver i Utah til å droppe lovforslaget om åpenhet i kunstig intelligens ↗
Et press på delstatsnivå for åpenhet om AI i Utah får direkte kritikk fra Det hvite hus, og tjenestemenn oppfordrer forslagsstilleren til ikke å fremme det. Lovforslagets utforming handler om åpenhet og barns sikkerhet – noe som er vanskelig å argumentere imot rent optisk.
Men den større kampen er jurisdiksjonsmessig: hvem får sette reglene, delstatene eller den føderale regjeringen. Og ja, det er en knurring – som to personer som griper tak i det samme rattet og insisterer på at de er de rolige.
🎬 ByteDance lover å forhindre uautorisert IP-bruk på AI-videoverktøy etter Disney-trusselen ↗
Disney sendte ut en midlertidig stans for ByteDances AI-videogenerator, og ByteDance sier at de styrker sikkerhetstiltakene for å forhindre uautorisert bruk av IP og likhet. Klagen – angivelig – er at verktøyet kan spytte ut kjente franchisefigurer som om de bare var … klistremerker i offentlig domene.
Det er kollisjonen alle så komme: virale AI-videoverktøy utvikler seg raskt, studioer blir rettslige, og «vi legger til sikkerhetstiltak» blir standardspråket for unnskyldninger. I en vri ser teknologien ut som magi – og den juridiske siden ser ut som tyngdekraft.
Vanlige spørsmål
Hva betyr det at OpenClaws grunnlegger ble med i OpenAI mens OpenClaw flyttet til en stiftelse?
Det signaliserer en splittelse mellom personen som bygger «personlige agenter» og prosjektet som forblir offentlig styrt. Steinberger som slutter seg til OpenAI antyder at han vil konsentrere seg om å utvikle agentlignende produkter der. Å plassere OpenClaw i en stiftelse er ment å holde det åpent og bærekraftig støttet. I praksis tar sikte på å bevare tilliten til samfunnet mens byggeren går dit ressursene er.
Hvorfor er OpenClaw-lignende AI-agenter fokusert på gjøremål som e-post og papirarbeid?
Fordi «livsadministrasjon»-arbeid er repetitivt, regelbasert og tidkrevende, noe som gjør det til et praktisk mål for automatisering. Eksemplene her – e-postprioritering, forsikringspapirer og innsjekking av flyreiser – er smale oppgaver med klare suksesskriterier. Dette fokuset kan få agenter til å føle seg verdifulle raskere enn assistenter med mer åpne oppgaver. Det understreker også hvorfor nøye tilgangskontroller er viktige når agenter berører personlige kontoer.
Hvordan kan man distribuere en åpen kildekode-AI-agent som OpenClaw uten å skape sikkerhetsproblemer?
Behandle det som programvare som kan se sensitive data, ikke som et leketøyskript. En vanlig tilnærming er å låse legitimasjon, begrense tillatelser til minimumsbegrensningene og føre logger og revisjonsspor. Kjør det i et begrenset miljø og skille det fra systemer med høy verdi. Mange sikkerhetsbekymringer stammer fra uforsiktig distribusjon, spesielt når folk eksponerer endepunkter eller tokener uten sterke sikkerhetstiltak.
Hvorfor er Pentagon misfornøyd med Anthropics restriksjoner på Claude for militær bruk?
Tvisten dreier seg om omfang og kontroll: Pentagon ønsker bred tilgang «for alle lovlige formål», mens Anthropic beskrives som et selskap som holder strenge grenser for fullstendig autonome våpen og masseovervåking. Myndighetene ønsker heller ikke at modeller skal blokkere arbeidsflyter midt i prosessen eller kreve endeløse forhandlinger i marginale tilfeller. Denne spenningen er mindre abstrakt enn den høres ut – det handler om hvem som bestemmer hva modellen kan gjøre i reelle operasjoner.
Hvordan prøver oppstartsbedrifter å forutsi menneskelig atferd med AI, og hvorfor føles det kontroversielt?
Eksemplet her, Simile, følger en modell med «begrenset læring» som tar sikte på å forutsi hva folk kan komme til å gjøre, inkludert å forutse sannsynlige spørsmål i sammenhenger som inntjeningssamtaler. Tilnærmingen som beskrives blander intervjuer med atferdsforskningsdata og simuleringer ved hjelp av AI-agenter som er ment å speile reelle preferanser. Det føles uhyggelig fordi det flytter AI fra å reagere på folk til å forutsi dem. Utfordringen er å holde påstandene begrenset og unngå overdreven selvtillit.
Hva skjer når AI-videoverktøy genererer opphavsrettsbeskyttede figurer, slik som i ByteDance–Disney-sammenstøtet?
Det rapporterte mønsteret er kjent: et studio utsteder en opphørsavtale, og plattformen reagerer ved å styrke sikkerhetstiltakene for å forhindre uautorisert bruk av IP eller likheter. I mange verktøy betyr sikkerhetstiltak strengere innholdsfiltre, forbedret deteksjon av gjenkjennelige tegn og tydeligere håndheving av brukerpolicyer. Den underliggende konflikten er hastighet kontra ansvar – viral generering beveger seg raskt, og rettighetshåndhevelse fungerer som tyngdekraften. Forvent flere av disse kollisjonene etter hvert som videogeneratorer sprer seg.