Artwork

Inhalt bereitgestellt von Carnegie Council for Ethics in International Affairs. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Carnegie Council for Ethics in International Affairs oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Risking Escalation for the Sake of Efficiency: Ethical Implications of AI Decision-Making in Conflicts, by Max Lamparth

10:38
 
Teilen
 

Manage episode 434223628 series 2500267
Inhalt bereitgestellt von Carnegie Council for Ethics in International Affairs. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Carnegie Council for Ethics in International Affairs oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

In the quest for technological superiority, military strategists are looking into AI systems like language models for decision-making. With the potential for catastrophic consequences, we must address the ethical and safety concerns of these systems, writes Stanford University's Dr. Max Lamparth in this "Ethical Article."

To read this article, plase go to: https://carnegiecouncil.co/lamparth

  continue reading

705 Episoden

Artwork
iconTeilen
 
Manage episode 434223628 series 2500267
Inhalt bereitgestellt von Carnegie Council for Ethics in International Affairs. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Carnegie Council for Ethics in International Affairs oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

In the quest for technological superiority, military strategists are looking into AI systems like language models for decision-making. With the potential for catastrophic consequences, we must address the ethical and safety concerns of these systems, writes Stanford University's Dr. Max Lamparth in this "Ethical Article."

To read this article, plase go to: https://carnegiecouncil.co/lamparth

  continue reading

705 Episoden

Todos os episódios

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung