Risiken Künstlicher Intelligenz (mit Karl Olsberg)

1:24:54
 
Teilen
 

Manage episode 294242274 series 2893829
Von Soenke Scharnhorst entdeckt von Player FM und unserer Community - Das Urheberrecht hat der Herausgeber, nicht Player FM, und die Audiodaten werden direkt von ihren Servern gestreamt. Tippe auf Abonnieren um Updates in Player FM zu verfolgen oder füge die URL in andere Podcast Apps ein.

Diskutierte Blog-Beiträge

Stuart Russells 3 Prinzipien
für „gutartige“ KI (und Zweifel daran)
Maximierung des Ziels der „Verwirklichung menschl. Werte“, Anfangsunsicherheit, welche Werte das sind u. Ableitung dieser aus Beobachtung menschl. Verhaltens.

Regeln für gutartige KI von Karl Olsberg
Eine Maschine …
1. darf kein unbegrenztes Ziel verfolgen.
2. muss sich an geltende Gesetze halten.
3. muss tun, was der Nutzer von ihr möchte – ohne Verstoß gegen Regel 1 oder 2.

Weitere Blogbeiträge (Auswahl)

Weitere Beiträg auf Karl Olsbergs Blog KI-Risiken

Referenzen

OODA-Loop [wikipedia dt.]

Empfehlungen

Youtube-Channel: Karl Olsbergs KONSEQUENZEN

ReWrite Ausgabe 57: Karl Olsbergs Roman »Mirror«

ReWrite Ausgabe 17: Künstliche Intelligenz in Literatur und Film

Sam Harris: Can we build AI without losing control over it? [TED Talk auf youtube, engl.]

Kapitel

1. Karl Olsberg (00:00:37)

2. Risiken künstlicher Intelligenz (00:04:09)

3. Selbstbewusste künstliche Intelligenz (00:04:49)

4. Kompetenzproblem (00:14:47)

5. Ungleichheitsproblem (00:15:41)

6. Midas-Problem (00:36:36)

7. In the loop, On the loop, Out of the Loop (00:44:09)

8. Karl Olsberg KONSEQUENZEN (00:55:35)

9. Drei Regeln für gutartige KI (01:01:04)

10. Stuart Jonathan Russell (01:21:20)

64 Episoden