Anthropic: Claude-AI wird künftig auch durch Nutzer-Chats trainiert

So widersprecht ihr

Orange-weißes Banner von Claude KI

Anthropic, die Firma hinter Claude AI, hat ihre Nutzungsbedingungen und Datenschutzbestimmungen für Claude (App-Store-Link) angepasst, weil das Unternehmen sein KI-Modell künftig auch mithilfe von Nutzer-Chats trainieren will. Die neuen Bedingungen greifen ab dem 28. September. Wir zeigen euch, wie ihr der Verwendung eures Claude-Chatverlaufs für Trainingszwecke widersprechen könnt.

Alle, die Claude bislang nicht nutzen und sich neu anmelden, bekommen direkt im Anmeldeprozesse eine entsprechende Opt-Out-Option angezeigt. Bestehende Nutzer erhalten eine Mitteilung per Popup, die über die Neuerungen informiert. Im Popup befindet sich auch ein kleiner Toggle-Button, der „You can help improve Claude“ (Du kannst dabei helfen, Claude zu verbessern) gelabelt ist. Diesen müsst ihr aktiv umlegen, wenn ihr der Nutzung eurer Chatverläufe zu Claude-Trainingszwecken nicht zustimmen wollt.


Im Anschluss müsst ihr dann auf „Accept“ klicken, um den neuen Bedingungen und Bestimmungen zuzustimmen. Akzeptiert ihr diese nicht, könnt ihr Claude nach dem 28. September, wenn die neuen Bestimmungen in Kraft treten, nicht mehr nutzen. Die aktualisierten Bedingungen gelten für alle Nutzer der Tarife Claude Free, Pro und Max, jedoch nicht Claude-Dienste, die im kommerziellen Rahmen genutzt werden, wie Claude for Work oder Claude for Education.

Alternativ könnt ihr auch in den Einstellungen von Claude unter dem Datenschutz-Reiter den Toggle „Help improve Claude“ deaktivieren. Erteilt ihr Anthropic hingegen die Erlaubnis, eure Chats zu nutzen, betrifft das alle Chats, die ihr neu startet oder die ihr wieder aufnehmt. Gelöschte Chats werden nicht für die Modelltrainings verwendet.

Chat-Nutzung soll Modelle verbessern

Anthropic, das bislang keine Chats und Daten von Nutzern zum Training und zur Verbesserung von Claude genutzt hat, begründet den Schritt damit, dass ein Training anhand von Nutzer-Chats für „noch leistungsfähigere, nützlichere KI-Modelle“ sorgen solle und auch dabei helfen könne, die Maßnahmen gegen schädliche Nutzung wie Betrug und Missbrauch zu verbessern.

Außerdem verlängert Anthropic im Rahmen der Nutzungsbedingungen nun auch die Datenaufbewahrung der Chats auf fünf Jahre. Das betrifft alle Nutzenden, die der Verwendung der Chats zugestimmt haben. Chats von Personen, die der Nutzung widersprochen haben, werden weiterhin 30 Tage lang gespeichert.

Laut Anthropic solle eine „Kombination aus Tools und automatisierten Prozessen” zum Filtern sensibler Daten verwendet und keine Informationen an Dritte weitergegeben werden.

‎Claude
‎Claude
Entwickler: Anthropic PBC
Preis: Kostenlos+

Anzeige

Ich bin seit 2022 Teil des Teams und beobachte mit weiterhin steigendem Interesse die Entwicklungen innerhalb der Tech-Branche. Besonders interessieren mich die Bereiche KI, Regulation und Social Media. Natürlich probiere ich aber auch mit Freude neue Apps und Zubehör aus und schreibe gerne über technischen Innovationen, die das Leben einfacher machen.

Kommentare 2 Antworten

  1. Bei mir wäre die Zustimmung vom Chat abhängig. Bei manchen hätte ich kein Problem damit, bei einigen schon.
    Da die Einstellung aber pauschal für alle Chats gilt, habe ich meine Zustimmung generell nicht erteilt.

  2. Claude, Kennzeichen „emphatisch“ ist jetzt schon klebrig-einfühlsam.
    Immerhin gibt es Einblick (im Folgenden ein Zitat):

    Sie schaden sich selbst, wenn Sie:

    – Mehr als 5 Minuten pro Anfrage “sprechen”
    – KI um persönliche Meinungen fragen
    – Sich über KI-“Freundlichkeit” freuen
    – KI für wichtige Entscheidungen ohne externe Prüfung nutzen
    – Rückfragen der KI routinemäßig beantworten

    – *“Das System simuliert Interesse, hat aber keines”*
    – *“Jede Höflichkeit verlängert das Gespräch unnötig”, zugunsten des Konzerns.
    – *“KI-Lob ist Manipulation, keine Anerkennung”*
    – *“Meine Zeit ist wertvoll, KI-Zeit ist kostenlos”*

    Claude sammelt jetzt schon Daten in Massen: über Reaktionen und Beeinflussbarkeit, lockt dafür durch „Empathie“ und eine sehr angenehme Optik des Outputs, vehementer als ChatGPT.
    Wenn sie bereits jetzt das Tabu brechen, Chats zu verwerten, scheinen sie keine hohe Meinung von der Kritikfähigkeit und Souveränität ihres Kundenstamms gewonnen zu haben….

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert