Artwork

Inhalt bereitgestellt von Dev and Doc. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Dev and Doc oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

#07 a conversation on safety and risks of AI models | AI safety summit 2023

51:36
 
Teilen
 

Manage episode 428686722 series 3585389
Inhalt bereitgestellt von Dev and Doc. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Dev and Doc oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

30 Episoden

Artwork
iconTeilen
 
Manage episode 428686722 series 3585389
Inhalt bereitgestellt von Dev and Doc. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Dev and Doc oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

30 Episoden

Alle episoder

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung

Hören Sie sich diese Show an, während Sie die Gegend erkunden
Abspielen