Gehen Sie mit der App Player FM offline!
Mensch vs. Maschine: Wer urteilt fairer? - Sam Goetjes
Manage episode 518826122 series 3466870
Tipp: Kostenlose Software Testing Insights von internationalen Experten
"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes
In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.
Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.
Highlights:
- Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
- Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
- Manipulierter Gender Bias beeinflusst Entscheidungen messbar
- Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
- Lege Datenquellen offen und erhöhe Nachvollziehbarkeit
Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Kapitel
1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)
2. KIs: Menschliches Vertrauen und Bias (00:04:26)
3. Geschlechterbias in der Bewertung (00:07:52)
4. Tests und Qualitätsmanagement neu gewichten (00:13:47)
5. Rolle des Testmanagers in der Praxis (00:16:00)
6. Risiken von KI im Bewerbungsprozess (00:19:18)
7. Spannende Einblicke und Potenziale (00:22:51)
171 Episoden
Manage episode 518826122 series 3466870
Tipp: Kostenlose Software Testing Insights von internationalen Experten
"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes
In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.
Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.
Highlights:
- Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
- Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
- Manipulierter Gender Bias beeinflusst Entscheidungen messbar
- Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
- Lege Datenquellen offen und erhöhe Nachvollziehbarkeit
Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Kapitel
1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)
2. KIs: Menschliches Vertrauen und Bias (00:04:26)
3. Geschlechterbias in der Bewertung (00:07:52)
4. Tests und Qualitätsmanagement neu gewichten (00:13:47)
5. Rolle des Testmanagers in der Praxis (00:16:00)
6. Risiken von KI im Bewerbungsprozess (00:19:18)
7. Spannende Einblicke und Potenziale (00:22:51)
171 Episoden
Alle Folgen
×Willkommen auf Player FM!
Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.