Artwork

Inhalt bereitgestellt von Soenke Scharnhorst. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Soenke Scharnhorst oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Risiken Künstlicher Intelligenz (mit Karl Olsberg)

1:24:54
 
Teilen
 

Archivierte Serien ("Inaktiver Feed" status)

When? This feed was archived on September 27, 2023 02:02 (8M ago). Last successful fetch was on August 25, 2023 14:46 (9M ago)

Why? Inaktiver Feed status. Unsere Server waren nicht in der Lage einen gültigen Podcast-Feed für einen längeren Zeitraum zu erhalten.

What now? You might be able to find a more up-to-date version using the search function. This series will no longer be checked for updates. If you believe this to be in error, please check if the publisher's feed link below is valid and contact support to request the feed be restored or if you have any other concerns about this.

Manage episode 294242274 series 2893829
Inhalt bereitgestellt von Soenke Scharnhorst. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Soenke Scharnhorst oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Diskutierte Blog-Beiträge

Stuart Russells 3 Prinzipien
für „gutartige“ KI (und Zweifel daran)
Maximierung des Ziels der „Verwirklichung menschl. Werte“, Anfangsunsicherheit, welche Werte das sind u. Ableitung dieser aus Beobachtung menschl. Verhaltens.

Regeln für gutartige KI von Karl Olsberg
Eine Maschine …
1. darf kein unbegrenztes Ziel verfolgen.
2. muss sich an geltende Gesetze halten.
3. muss tun, was der Nutzer von ihr möchte – ohne Verstoß gegen Regel 1 oder 2.

Weitere Blogbeiträge (Auswahl)

Weitere Beiträg auf Karl Olsbergs Blog KI-Risiken

Referenzen

OODA-Loop [wikipedia dt.]

Empfehlungen

Youtube-Channel: Karl Olsbergs KONSEQUENZEN

ReWrite Ausgabe 57: Karl Olsbergs Roman »Mirror«

ReWrite Ausgabe 17: Künstliche Intelligenz in Literatur und Film

Sam Harris: Can we build AI without losing control over it? [TED Talk auf youtube, engl.]

  continue reading

Kapitel

1. Karl Olsberg (00:00:37)

2. Risiken künstlicher Intelligenz (00:04:09)

3. Selbstbewusste künstliche Intelligenz (00:04:49)

4. Kompetenzproblem (00:14:47)

5. Ungleichheitsproblem (00:15:41)

6. Midas-Problem (00:36:36)

7. In the loop, On the loop, Out of the Loop (00:44:09)

8. Karl Olsberg KONSEQUENZEN (00:55:35)

9. Drei Regeln für gutartige KI (01:01:04)

10. Stuart Jonathan Russell (01:21:20)

119 Episoden

Artwork
iconTeilen
 

Archivierte Serien ("Inaktiver Feed" status)

When? This feed was archived on September 27, 2023 02:02 (8M ago). Last successful fetch was on August 25, 2023 14:46 (9M ago)

Why? Inaktiver Feed status. Unsere Server waren nicht in der Lage einen gültigen Podcast-Feed für einen längeren Zeitraum zu erhalten.

What now? You might be able to find a more up-to-date version using the search function. This series will no longer be checked for updates. If you believe this to be in error, please check if the publisher's feed link below is valid and contact support to request the feed be restored or if you have any other concerns about this.

Manage episode 294242274 series 2893829
Inhalt bereitgestellt von Soenke Scharnhorst. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Soenke Scharnhorst oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Diskutierte Blog-Beiträge

Stuart Russells 3 Prinzipien
für „gutartige“ KI (und Zweifel daran)
Maximierung des Ziels der „Verwirklichung menschl. Werte“, Anfangsunsicherheit, welche Werte das sind u. Ableitung dieser aus Beobachtung menschl. Verhaltens.

Regeln für gutartige KI von Karl Olsberg
Eine Maschine …
1. darf kein unbegrenztes Ziel verfolgen.
2. muss sich an geltende Gesetze halten.
3. muss tun, was der Nutzer von ihr möchte – ohne Verstoß gegen Regel 1 oder 2.

Weitere Blogbeiträge (Auswahl)

Weitere Beiträg auf Karl Olsbergs Blog KI-Risiken

Referenzen

OODA-Loop [wikipedia dt.]

Empfehlungen

Youtube-Channel: Karl Olsbergs KONSEQUENZEN

ReWrite Ausgabe 57: Karl Olsbergs Roman »Mirror«

ReWrite Ausgabe 17: Künstliche Intelligenz in Literatur und Film

Sam Harris: Can we build AI without losing control over it? [TED Talk auf youtube, engl.]

  continue reading

Kapitel

1. Karl Olsberg (00:00:37)

2. Risiken künstlicher Intelligenz (00:04:09)

3. Selbstbewusste künstliche Intelligenz (00:04:49)

4. Kompetenzproblem (00:14:47)

5. Ungleichheitsproblem (00:15:41)

6. Midas-Problem (00:36:36)

7. In the loop, On the loop, Out of the Loop (00:44:09)

8. Karl Olsberg KONSEQUENZEN (00:55:35)

9. Drei Regeln für gutartige KI (01:01:04)

10. Stuart Jonathan Russell (01:21:20)

119 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung