Chaque semaine, De Quoi Je Me Mail présenté par François Sorel ouvre le débat sur l'actu high-tech ! En compagnie de journalistes, mais aussi de personnalités spécialistes du numérique, nous analysons, décortiquons les grandes tendances du moment.
…
continue reading
Inhalt bereitgestellt von The Flares - Podcasts and The Flares. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von The Flares - Podcasts and The Flares oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!
Gehen Sie mit der App Player FM offline!
#39 - Alignement et risques catastrophiques liés à l’I.A. – avec Jérémy Perret | The Flares
MP3•Episode-Home
Manage episode 346846812 series 2785757
Inhalt bereitgestellt von The Flares - Podcasts and The Flares. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von The Flares - Podcasts and The Flares oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0 ➡ https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
…
continue reading
105 Episoden
MP3•Episode-Home
Manage episode 346846812 series 2785757
Inhalt bereitgestellt von The Flares - Podcasts and The Flares. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von The Flares - Podcasts and The Flares oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0 ➡ https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
…
continue reading
105 Episoden
Όλα τα επεισόδια
×Willkommen auf Player FM!
Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.