Artwork

Inhalt bereitgestellt von Benoit Hardy-Vallée. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Benoit Hardy-Vallée oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Achieving Fairness in Algorithmic Decision Making in HR

29:08
 
Teilen
 

Manage episode 354749391 series 3428014
Inhalt bereitgestellt von Benoit Hardy-Vallée. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Benoit Hardy-Vallée oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Join us on this episode as we dive into the complex world of algorithmic fairness in HR with Manish Raghavan, Assistant Professor of Information Technology at the MIT Sloan School of Management. Discover the challenges and opportunities of using algorithms to make decisions about people, and learn about the importance of preventing algorithms from replicating discriminatory and unfair human decision-making. Get insights into the distinction between procedural fairness and outcome fairness, and understand why the deployment environment of a machine learning model is just as crucial as the technology itself. Gain a deeper understanding of the scoring mechanism behind algorithmic tools, and the potential dangers and consequences of their use. Learn how common signals in assessments can result in similar assessments across organizations and what it takes to achieve fairness in algorithmic decision-making in HR.
Manish page at MIT
Follow Manish on LinkedIn

  continue reading

42 Episoden

Artwork
iconTeilen
 
Manage episode 354749391 series 3428014
Inhalt bereitgestellt von Benoit Hardy-Vallée. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Benoit Hardy-Vallée oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Join us on this episode as we dive into the complex world of algorithmic fairness in HR with Manish Raghavan, Assistant Professor of Information Technology at the MIT Sloan School of Management. Discover the challenges and opportunities of using algorithms to make decisions about people, and learn about the importance of preventing algorithms from replicating discriminatory and unfair human decision-making. Get insights into the distinction between procedural fairness and outcome fairness, and understand why the deployment environment of a machine learning model is just as crucial as the technology itself. Gain a deeper understanding of the scoring mechanism behind algorithmic tools, and the potential dangers and consequences of their use. Learn how common signals in assessments can result in similar assessments across organizations and what it takes to achieve fairness in algorithmic decision-making in HR.
Manish page at MIT
Follow Manish on LinkedIn

  continue reading

42 Episoden

ทุกตอน

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung