Artwork

Inhalt bereitgestellt von Info Support. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Info Support oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

#20 - Het ontwikkelen van AI modellen die je kunt vertrouwen(met Niels Naglé, Bas Niesink en Joop Snijder)

27:29
 
Teilen
 

Manage episode 374513126 series 3407233
Inhalt bereitgestellt von Info Support. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Info Support oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

29 Episoden

Artwork
iconTeilen
 
Manage episode 374513126 series 3407233
Inhalt bereitgestellt von Info Support. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Info Support oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

29 Episoden

كل الحلقات

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung