Artwork

Inhalt bereitgestellt von Gus Docker and Future of Life Institute. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Gus Docker and Future of Life Institute oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Andrea Miotti on a Narrow Path to Safe, Transformative AI

1:28:09
 
Teilen
 

Manage episode 446779370 series 1334308
Inhalt bereitgestellt von Gus Docker and Future of Life Institute. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Gus Docker and Future of Life Institute oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Andrea Miotti joins the podcast to discuss "A Narrow Path" — a roadmap to safe, transformative AI. We talk about our current inability to precisely predict future AI capabilities, the dangers of self-improving and unbounded AI systems, how humanity might coordinate globally to ensure safe AI development, and what a mature science of intelligence would look like.

Here's the document we discuss in the episode:

https://www.narrowpath.co

Timestamps:

00:00 A Narrow Path

06:10 Can we predict future AI capabilities?

11:10 Risks from current AI development

17:56 The benefits of narrow AI

22:30 Against self-improving AI

28:00 Cybersecurity at AI companies

33:55 Unbounded AI

39:31 Global coordination on AI safety

49:43 Monitoring training runs

01:00:20 Benefits of cooperation

01:04:58 A science of intelligence

01:25:36 How you can help

  continue reading

219 Episoden

Artwork
iconTeilen
 
Manage episode 446779370 series 1334308
Inhalt bereitgestellt von Gus Docker and Future of Life Institute. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Gus Docker and Future of Life Institute oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Andrea Miotti joins the podcast to discuss "A Narrow Path" — a roadmap to safe, transformative AI. We talk about our current inability to precisely predict future AI capabilities, the dangers of self-improving and unbounded AI systems, how humanity might coordinate globally to ensure safe AI development, and what a mature science of intelligence would look like.

Here's the document we discuss in the episode:

https://www.narrowpath.co

Timestamps:

00:00 A Narrow Path

06:10 Can we predict future AI capabilities?

11:10 Risks from current AI development

17:56 The benefits of narrow AI

22:30 Against self-improving AI

28:00 Cybersecurity at AI companies

33:55 Unbounded AI

39:31 Global coordination on AI safety

49:43 Monitoring training runs

01:00:20 Benefits of cooperation

01:04:58 A science of intelligence

01:25:36 How you can help

  continue reading

219 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung