Artwork

Inhalt bereitgestellt von Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Mensch vs. Maschine: Wer urteilt fairer? - Sam Goetjes

23:52
 
Teilen
 

Manage episode 518826122 series 3466870
Inhalt bereitgestellt von Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

Kapitel

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 Episoden

Artwork
iconTeilen
 
Manage episode 518826122 series 3466870
Inhalt bereitgestellt von Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

Kapitel

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung

Hören Sie sich diese Show an, während Sie die Gegend erkunden
Abspielen