OpenAI udvikler nyt værktøj til opdagelse af AI-genereret indhold

OpenAI, firmaet bag ChatGPT, har udviklet et meget nøjagtigt værktøj, der kan opdage indhold genereret af deres AI-modeller.

OpenAI udvikler nyt værktøj til opdagelse af AI-genereret indhold
Lavet med Midjourney

Godmorgen 🤗

Der har været flere forsøg på at skabe et godt AI-værktøj, der kan opdage indhold, der er skabt af AI, og det ser ud til, at der snart kommer et godt bud.

Meta går også til Hollywood for at finde stemmer til deres kommende AI-assistenter.

Og lidt fra mig: Jeg tilbyder skræddersyede workshops, hvor jeg kommer ud til din virksomhed og faciliterer en session, der er målrettet netop jeres behov og udfordringer.

Husk også at klikke her for at læse mere om min live Q&A-session om mit nye forløb "AI Creator", hvor du lærer at skabe indhold, der sælger ved hjælp af AI.

God læselyst!

Tilmeld dig Live Q&A om AI Creator her
På Workshoppen fortæller jeg om AI Creator forløbet der lærer dig at bruge forskellige AI værktøjer, så du kan skabe indhold der konverterer.

Her er dagens menu:

  • OpenAI udvikler nyt værktøj til opdagelse af AI-genereret indhold
  • Meta indgår millionaftaler med kendte skuespillere om AI-stemmer
  • Suno indrømmer brug af ophavsretligt beskyttet musik til AI-træning
  • Fængsler af fremtiden: AI-genererede traumer som straf?
  • Robotrevolution i tandlægestolen: Første fuldautomatiske behandling gennemført
💡
Ugens AI-værktøj: Midjourney løfter billedkvaliteten til nye højder med Version 6.1

OpenAI udvikler nyt værktøj til opdagelse af AI-genereret indhold

Lavet med MIdjourney

OpenAI, firmaet bag ChatGPT, har udviklet et meget nøjagtigt værktøj, der kan opdage indhold genereret af deres AI-modeller. Værktøjet fungerer ved hjælp af usynlige vandmærker og proprietære detektionsmetoder.

OpenAI overvejer dog ikke at frigive værktøjet til offentligheden på nuværende tidspunkt. Dette skyldes bekymringer om, at værktøjet potentielt kan omgås af ondsindede aktører.

Derudover er der frygt for, at ikke-engelsktalende brugere af AI-modeller kan blive stigmatiseret, da oversættelse af engelsk tekst til et andet sprog muligvis kan omgå detektionen.

Indtil videre findes der ingen offentligt tilgængelige værktøjer, der med høj nøjagtighed kan opdage AI-genereret indhold på tværs af forskellige opgaver. OpenAI's interne værktøj vil være det første, der benytter sig af usynlige vandmærker og skræddersyede detektionsmetoder specifikt til indhold genereret af firmaets egne modeller.

Der er endnu ingen tidsplan for, hvornår eller om OpenAI vil frigive værktøjet til offentligheden.

Skræddersyede Workshops til din virksomhed

Foto: Anne Kring

Jeg tilbyder skræddersyede workshops, hvor jeg kommer ud til din virksomhed og faciliterer en session, der er målrettet netop jeres behov og udfordringer.

Sammen finder vi ud af, hvordan I bedst kan udnytte AI og de nyeste digitale tendenser og værktøjer til at styrke jeres forretning. Udover skræddersyede workshops tilbyder jeg også en række workshops med faste emner.

Målet med alle workshops er, at deltagerne går derfra med ny viden, konkrete værktøjer og masser af inspiration til at kickstarte deres digitale udvikling.

Processen starter med, at du udfylder en formular eller giver mig et kald. Sammen tilrettelægger vi en workshop, der er skræddersyet til netop jeres behov og ønsker. Jeg sørger for, at indhold og form passer perfekt til jer.

Skræddersyede Workshops til din virksomhed
Jeg tilbyder skræddersyede workshops, hvor jeg kommer ud til din virksomhed og faciliterer en session, der er målrettet netop jeres behov.

Meta indgår millionaftaler med kendte skuespillere om AI-stemmer

Lavet med Midjourney

Meta, selskabet bag Facebook og Instagram, arbejder på at få kendte skuespillere og influencers som Awkwafina, Keegan-Michael Key og Judi Dench til at lægge stemme til selskabets kommende AI-assistenter.

Meta forhandler i øjeblikket med de største talentbureauer i Hollywood for at sikre sig stemmerne og er klar til at betale millioner af dollars til de medvirkende.

Stemmerne skal bruges i en digital assistentprodukt kaldet MetaAI, der vil blive præsenteret på Metas konference Meta Connect i september. Assistenterne vil være tilgængelige på tværs af Metas sociale medieplatforme, herunder Facebook, Instagram og Meta Ray-Ban smart-briller.

Kontrakterne med skuespillerne vil være midlertidige, og de kan vælge at forlænge samarbejdet, når perioden udløber. Brugen af kendte stemmer i AI-assistenter er ikke nyt, men med den seneste udvikling inden for generativ AI kan stemmerne nu efterligne rigtige mennesker på en overbevisende måde. Dette kan gøre oplevelsen mere engagerende og mindre som et billigt trick.

Meta har ikke kommenteret på historien endnu, men hvis det lykkes selskabet at få de kendte stemmer ombord, kan det blive et spændende nyt kapitel i udviklingen af AI-assistenter.

Meta courts celebs like Awkwafina to voice AI assistants ahead of Meta Connect
Awkwafina and Keegan-Michael Key are apparently also in talks.

Suno indrømmer brug af ophavsretligt beskyttet musik til AI-træning

Lavet med Midjourney

AI-musikstartup'en Suno har indrømmet, at de trænede deres AI-model ved at bruge ophavsretligt beskyttede sange, efter at de blev sagsøgt af RIAA (Recording Industry Association of America). Suno hævder dog, at brugen af sangene er lovlig under princippet om "fair use".

RIAA sagsøgte Suno og en anden startup ved navn Udio d. 24. juni, hvor de anklagede virksomhederne for at træne deres modeller med ophavsretligt beskyttet musik.

I retsdokumenter indrømmede Suno, at deres model var trænet på "millioner af indspilninger", hvoraf nogle tilhører pladeselskaberne bag søgsmålet.

Suno's CEO, Mikey Shulman, argumenterede for, at træningen af deres AI-model på data fra det åbne internet svarer til, at "et barn skriver sine egne rocksange efter at have lyttet til genren." RIAA svarede igen ved at sige, at Sunos "industrielle krænkelse" ikke kan kvalificeres som fair use, og at Sunos vision for musikkens fremtid er en, hvor kunstnere ikke længere kan tjene penge på deres arbejde.

Sagen rejser et væsentligt spørgsmål om, hvorvidt fair use-doktrinen kan anvendes, når det kommer til træning af AI-modeller. Udfaldet af sagen vil sandsynligvis skabe en vigtig præcedens, der kan definere fremtiden for mere end blot de to startups nævnt i søgsmålet.

AI music startup Suno claims training model on copyrighted music is ‘fair use’ | TechCrunch
Following the recent lawsuit filed by the Recording Industry Association of America (RIAA) against music generation startups Udio and Suno, Suno admitted Suno admitted that it trained its AI model using copyrighted music but doing so was legal under the fair-use doctrine.

Fængsler af fremtiden: AI-genererede traumer som straf?

Screenshot fra video

En kunstig intelligens ekspert har lavet en fiktiv video, der forestiller en reklame for "Cognify - Fængslet af fremtiden". I videoen foreslås det, at man i fremtiden kunne straffe kriminelle ved at indplante falske, traumatiske AI-genererede minder i deres hjerner, i stedet for at sætte dem i fængsel i lang tid.

På den måde ville de kriminelle opleve de traumer, de har påført deres ofre. Fordelene ville angiveligt være lavere udgifter til fængsler og hurtigere rehabilitering, så de kriminelle kunne komme tilbage på arbejdsmarkedet.

Selvom det lyder som urealistisk science fiction, er teknologien måske ikke helt umulig i fremtiden. Men der er etiske problemer i at skabe en falsk virkelighed i folks bevidsthed. Omvendt kan man argumentere for, at fængsling blot for straffens skyld også er uetisk og ineffektivt til at forhindre ny kriminalitet.

Forfatteren konkluderer, at det rejser svære spørgsmål om etik, sandhed og effektiv kriminalitetsbekæmpelse, som vi forhåbentlig aldrig bliver nødt til at finde svar på i virkeligheden. Det bør forblive science fiction.

Skal vi straffe kriminelle med AI-genererede traumer fremfor fængsel? | Radar
En AI-fiktion stiller spørgsmålet: Skal vi i fremtiden droppe fængsler til fordel for straf via kunstig intelligens ?

Robotrevolution i tandlægestolen: Første fuldautomatiske behandling gennemført

Foto: New Atlas / Perceptive

Et fuldt automatisk tandlægerobot har for første gang udført en komplet tandbehandling på et menneske. Robotten, udviklet af firmaet Perceptive i Boston, bruger en håndholdt 3D-scanner til at danne en detaljeret model af patientens mund, tænder og tandkød.

Scanneren anvender optisk kohærens-tomografi (OCT), som kun bruger lysstråler og dermed undgår skadelig røntgenstråling.

Når scanningen er udført, kan en menneskelig tandlæge diskutere behandlingsplanen med patienten. Herefter overtager robotten hele proceduren og udfører den ca. 8 gange hurtigere end en menneskelig tandlæge. Robottens første speciale er at forberede en tand til en tandkrone - normalt en 2 timers procedure fordelt på to besøg. Robotten klarer det på ca. 15 minutter.

Selvom det kan virke skræmmende at lade en robot bore i ens tænder, er der flere potentielle fordele. Udover den markant kortere behandlingstid, behøver patienten ikke at holde munden åben lige så længe. Desuden forventes omkostningerne at falde, i takt med at robotten sparer tandlægens tid.

Perceptives robot er endnu ikke godkendt af FDA, så der går nok nogle år, før den bliver tilgængelig for offentligheden. Men firmaet arbejder på at udvide maskinens færdigheder og behandlingsmuligheder. Denne nyhed markerer en milepæl inden for tandpleje og et skridt i retning af mere automatiserede sundhedsløsninger.

Fully-automatic robot dentist performs world’s first human procedure
Nightmare fuel? Maybe – but in a historic moment for the dental profession, an AI-controlled autonomous robot has performed an entire procedure on a human patient for the first time, about eight times faster than a human dentist could do it.

Midjourney løfter billedkvaliteten til nye højder med Version 6.1

Foto: Midjourney

Midjourney har netop frigivet version 6.1 af deres billedgenereringsmodel. Denne opdatering bringer en række vigtige forbedringer, herunder mere sammenhængende billeder med bedre gengivelse af arme, ben, hænder, kroppe, planter og dyr.

Billedkvaliteten er markant forbedret med reducerede pixelfejl, forbedrede teksturer og hudgengivelse samt mere præcise og detaljerede små billeddetaljer som øjne, ansigter og hænder.

Nye 2x opskaleringsmodeller giver meget bedre billed- og teksturkvalitet. Standardbilledjobs er omkring 25% hurtigere. Tekstnøjagtigheden er forbedret, når der tegnes ord via "citater" i prompts.

En ny personaliseringsmodel tilbyder bedre nuancer, overraskelser og nøjagtighed. Versionsstyring af personaliseringskoder gør det muligt at bruge gamle personaliseringskoder og -data fra tidligere jobs.

Generelt skulle billeder se "mere smukke ud" på tværs af modellen. Midjourney planlægger at frigive en version 6.2 inden for den næste måned med yderligere forbedringer baseret på data indsamlet fra brugernes anvendelse af version 6.1.

Version 6.1
Hi everyone, we’re releasing V6.1 of our Midjourney Image Model today! What’s new in V6.1? * More coherent images (arms, legs, hands, bodies, plants, animals, etc) * Much better image quality (reduced pixel artifacts, enhanced textures, skin, etc) * More precise, detailed, and correct small image features (eyes, small

Laver du indhold?

Så tilmeld dig min Live Q&A, og hør om det nye forløb, du kan komme på: AI Creator, der lærer dig at skabe indhold, der sælger med AI.

Tilmeld dig Live Q&A om AI Creator her
På Workshoppen fortæller jeg om AI Creator forløbet der lærer dig at bruge forskellige AI værktøjer, så du kan skabe indhold der konverterer.

Tak, fordi du læste med!

Vi ses på tirsdag til det næste nyhedsbrev. Har du et spørgsmål eller feedback? Bare tryk på svar og skriv, fordi jeg gerne vil høre fra dig og helt sikkert vil svare.

Kender du nogle der godt kunne tænke sig at blive klogere på AI, så del dette link med dem 🤗

Mvh. René Hjetting
Mobil: +45 29 27 65 40