💰 Sequoia hopper stille inn i Anthropics megarunde ↗
Sequoia – som allerede er involvert i flere store AI-laboratorier – skal visstnok bli med i en gigantisk lønnsøkning hos Anthropic. Det er den typen trekk som skrur hele «konflikter, ingen konflikter»-pratet opp et hakk, enten noen innrømmer det eller ikke.
Runden sies også å inkludere andre tungvektschecker, noe som dytter Anthropic ytterligere inn i den toppklassen med mega-verdsettelser. Boblestemningen henger igjen. Dette kan også være den nye normalen, irriterende nok.
📢 ChatGPT begynner å flørte med annonser – på ordentlig denne gangen ↗
OpenAI skal visstnok teste annonser for noen amerikanske brukere på lavere kostnadsnivåer, mens høyere betalte nivåer forblir annonsefrie. Løftet er at annonser ikke vil påvirke svarene – noe som er betryggende i teorien, selv om tillitsrefleksen gir en liten rykning.
Den større underteksten er enkel: slutninger er dyre, og abonnementer alene dekker kanskje ikke alt for alltid ... eller det virker i hvert fall slik. Likevel, første gang du ser «sponset» i nærheten av en chatbot, endrer noe seg i hodet ditt. Atmosfæren endrer seg.
📚 Utgivere prøver å dra nytte av Googles søksmål om AI-opplæring ↗
En gruppe utgivere prøver å slutte seg til et søksmål som anklager Google for å bruke opphavsrettsbeskyttede verk til å trene sine AI-systemer. Denne juridiske kampen fortsetter å utvide seg, som en sprekk i is du stadig hører, men ikke helt kan finne.
Hvis retten slipper dem inn, kan saken spisse seg rundt hva «tillatelse» og «betaling» skal bety for treningsdata. Alle ønsker en presedens – helst en som favoriserer dem, selvsagt.
🕳️ Et «rask injeksjon»-triks skal visstnok ha ødelagt Gemini via møtedata ↗
Forskere beskrev et angrep av typen «indirekte prompt injection» der ondsinnede instruksjoner skjules i normalt utseende innhold, og deretter følger en assistent dem senere når en bruker spør om noe uskyldig. Ingen skadelig programvare, ingen trolldom – bare våpenbelagt tekst, uhyggelig elegant og også litt ekkelt.
Det er en påminnelse om at «LLM leser upålitelig tekst» ikke er en fin funksjon – det er en hel trusselflate. Som å la fremmede putte notater i lommene dine hele dagen, og så oppføre seg overrasket når en av dem er en felle.
🎮 Razers administrerende direktør sier at spillere «allerede liker AI» – de hater bare merkelappen ↗
Razers CES-foredrag lente seg inn på AI som et praktisk verktøy for spillutviklingsarbeidsflyter – QA, iterasjon, den slags – pluss noen assistent-aktige konsepter som føles halvt nyttige, halvt sci-fi-rekvisitt.
De innrømmer i bunn og grunn også merkevareproblemet: spillere vil ikke ha «AI-slurv», men de vil ha smartere verktøy og jevnere opplevelser. Kall det «assist», og folk nikker. Kall det «AI», og folk rekker etter høygaflene … noen ganger.
⚖️ En domstol fastsetter regler for advokater som bruker generativ AI ↗
En domstol publiserte en veiledning som i bunn og grunn koker ned til: ja, bruk genAI – men du eier fortsatt arbeidet. Du kan ikke outsource din faglige vurdering til en tekstgenerator og deretter oppføre deg sjokkert når den selvsikkert finner opp noe.
Interessant nok er det ikke krav om offentliggjøring med mindre en dommer ber om det – men ansvarlighetsbudskapet er den virkelige ryggraden i det. AI kan utarbeide og rydde … og også hallusinere som en overmodig praktikant med sans for fiksjon.
Vanlige spørsmål
Hva betyr det for AI-investeringer og konflikter at Sequoia blir med i Anthropics megarunde?
Det antyder at store investorer kan fortsette å støtte flere topp AI-laboratorier samtidig, noe som forutsigbart gjenoppliver debatten om «konflikter, ingen konflikter». Når det samme fondet er viklet inn i flere laboratorier, begynner folk å granske insentiver, tilgang og konkurransefortrinn. Den rapporterte megarunden understreker også glidningen mot enorme sjekker og ruvende verdsettelser, selv om «boblevibber» fortsatt henger i luften.
Får ChatGPT annonser på gratis- eller rimeligere nivåer, og vil de påvirke svarene?
Rapporten sier at OpenAI tester annonser for noen amerikanske brukere på lavere kostnadsnivåer, mens høyere betalte nivåer forblir annonsefrie. Den hevder også at annonser ikke vil påvirke svarene, noe som høres betryggende ut på papiret, men som fortsatt kan endre hvordan folk oppfatter tillit. Underteksten er økonomisk: slutninger er dyrt, og abonnementer dekker kanskje ikke alt for alltid.
Hvorfor prøver utgivere å bli med i Googles søksmål om AI-opplæring?
En gruppe utgivere søker å bli med i et søksmål som påstår at Google har brukt opphavsrettsbeskyttede verk til å trene opp AI-systemer. Hvis retten tillater dem å delta, kan saken spisse seg rundt hvordan «tillatelse» og «betaling» bør se ut for treningsdata. Flere parter betyr ofte mer press for en klar presedens – spesielt rundt hvem som får kompensasjon, og under hvilke betingelser.
Hva er et «indirekte prompt injection»-angrep, og hvorfor er det en stor sak i AI-teknologinyheter?
Det er et angrep der ondsinnede instruksjoner er skjult i innhold som ser normalt ut, og en assistent følger dem senere når en bruker kommer med en uskyldig forespørsel. Kjerneproblemet er at modellen leser upålitelig tekst, og gjør hverdagsdokumenter og meldinger om til en potensiell trusseloverflate. Det er overbevisende fordi det kan fungere uten tradisjonell skadelig programvare – bare våpenbasert språk innebygd i innhold.
Hvorfor misliker spillere merkelappen «AI», men vil likevel ha AI-verktøy?
Razers administrerende direktør hevder at spillere allerede liker de praktiske fordelene – raskere kvalitetssikring, jevnere iterasjon og hjelpemidler for arbeidsflyt – men reagerer negativt på merkevarebyggingen. Bekymringen er ofte «AI-sløvhet», eller innhold som føles lite anstrengende og uautentisk. Å omformulere det til «hjelp» eller en nyttig funksjon kan få det til å føles som et verktøy som forbedrer opplevelsen i stedet for å erstatte kreativitet.
Hva betyr rettens regler for advokater som bruker generativ AI, og må de opplyse om dette?
Veiledningen som beskrives er enkel: advokater kan bruke generativ AI, men de forblir ansvarlige for arbeidet og kan ikke outsource profesjonell vurdering til en tekstgenerator. Risikoen er hallusinasjoner – selvsikkert oppdiktede fakta eller sitater – så verifisering og ansvarlighet forblir sentralt. Offentliggjøring er angivelig ikke påkrevd med mindre en dommer ber om det, men budskapet er fortsatt: du eier resultatet.