Ethik für ChatGPT : Was Künstliche Intelligenz kann und was sie sollte (Theologisch-Philosophische Beiträge zu Gegenwartsfragen 28) (2024. 400 S. 210 mm)

個数:

Ethik für ChatGPT : Was Künstliche Intelligenz kann und was sie sollte (Theologisch-Philosophische Beiträge zu Gegenwartsfragen 28) (2024. 400 S. 210 mm)

  • オンデマンド(OD/POD)版です。キャンセルは承れません。

  • 提携先の海外書籍取次会社に在庫がございます。通常3週間で発送いたします。
    重要ご説明事項
    1. 納期遅延や、ご入手不能となる場合が若干ございます。
    2. 複数冊ご注文の場合は、ご注文数量が揃ってからまとめて発送いたします。
    3. 美品のご指定は承りかねます。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Hardcover:ハードカバー版
  • 商品コード 9783631920442

Description


(Short description)
Die vorliegende Untersuchung bietet eine Bestandsaufnahme dafür, wie wenig kommunikatives Handeln mit dem übereinstimmt, was eine KI kann. Allerdings gefährden Menschen ihre kommunikative Kompetenz und moralische Urteilsbildung, wenn sie mit Maschinen um Texte konkurrieren - und auch um Gestalt und Stimme.
(Text)

Warum sollten Studierende sich noch prüfen lassen, wenn sie sich von einem Sprachmodell vertreten lassen können? Und warum sollten Professoren noch selbst prüfen oder Fachartikel schreiben, wenn ein KI-Textgenerator angeblich auch Wissen generieren kann?
In diesem Szenario werden Menschen ihre Kommunikation an Künstliche Intelligenz (KI) abtreten und sich selbst davon ausschließen. Aber damit passiert mit textlicher Kommunikation nicht mehr dasselbe, wie wenn Menschen kommunizieren würden. KI kann nicht lesen, verstehen oder kommunizieren; sogar der Sinn für "Schreiben" ändert sich beim Einsatz von Sprachmodellen. Die vorliegende Untersuchung bietet eine Bestandsaufnahme dafür, wie wenig kommunikatives Handeln mit dem übereinstimmt, was eine KI kann. Allerdings gefährden Menschen ihre kommunikative Kompetenz und moralische Urteilsbildung, wenn sie mit Maschinen um Texte konkurrieren - und auch um Gestalt und Stimme.


(Table of content)
Vorwort - Einleitung - Teil I: Textaktivitäten - Teil II: Wahrheitsaktivitäten - Teil III: Tätigkeitsfelder - Teil IV: Anerkennen - Teil V: Religionsaktivitäten - Literaturverzeichnis.
(Author portrait)
Lukas Ohly ist Professor für Systematische Theologie und Religionsphilosophie an der Goethe-Universität Frankfurt. Einer seiner Forschungsschwerpunkte liegt in der Ethik der Digitalisierung, Künstlichen Intelligenz und Robotik. Er ist geschäftsführender Herausgeber der "Theologisch-Philosophischen Beiträge zu Gegenwartsfragen".

最近チェックした商品