Artwork

Inhalt bereitgestellt von DARPA. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von DARPA oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Episode 69: Demystifying Deepfakes

19:47
 
Teilen
 

Manage episode 366265884 series 1314130
Inhalt bereitgestellt von DARPA. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von DARPA oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Generative artificial intelligence has captured the world’s attention after recent advances in the commercial sector. Its ability to create deepfakes, or highly realistic multimedia, has turned a once highly specialized skill into something as easy as clicking a button.

As a result, the threat of manipulated media –audio, images, video, and text – has increased while social media provides a ripe environment for viral content sharing. Though, not all media manipulations have the same real-world impact.

In this episode of Voices from DARPA, Dr. Wil Corvey, program manager for DARPA’s Semantic Forensics (SemaFor), discusses how the program goes beyond detection to delve deeper into understanding the intent behind manipulated media and how their team is creating tools available for today’s analysts. They are joined by SemaFor researchers Arslan Basharat, assistant director of Computer Vision at Kitware Inc. and Luisa Verdoliva, professor at the University of Naples in Italy.

  continue reading

118 Episoden

Artwork

Episode 69: Demystifying Deepfakes

Voices from DARPA

457 subscribers

published

iconTeilen
 
Manage episode 366265884 series 1314130
Inhalt bereitgestellt von DARPA. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von DARPA oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Generative artificial intelligence has captured the world’s attention after recent advances in the commercial sector. Its ability to create deepfakes, or highly realistic multimedia, has turned a once highly specialized skill into something as easy as clicking a button.

As a result, the threat of manipulated media –audio, images, video, and text – has increased while social media provides a ripe environment for viral content sharing. Though, not all media manipulations have the same real-world impact.

In this episode of Voices from DARPA, Dr. Wil Corvey, program manager for DARPA’s Semantic Forensics (SemaFor), discusses how the program goes beyond detection to delve deeper into understanding the intent behind manipulated media and how their team is creating tools available for today’s analysts. They are joined by SemaFor researchers Arslan Basharat, assistant director of Computer Vision at Kitware Inc. and Luisa Verdoliva, professor at the University of Naples in Italy.

  continue reading

118 Episoden

Semua episod

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung

Hören Sie sich diese Show an, während Sie die Gegend erkunden
Abspielen