Es gibt eine Funktion namens Inkognito-Chat tot Amnesty International und WhatsApp Bald, so Mark Zuckerberg.
Meta-CEO gab bekannt Das Feature ist auf seiner Facebook-Seite Er beschrieb, dass es Benutzern eine „völlig private Möglichkeit“ gebe, mit dem KI-Assistenten des Unternehmens zu interagieren.
„Dies ist das erste große KI-Produkt, bei dem kein Verlauf Ihrer Gespräche auf Servern gespeichert wird“, schrieb Zuckerberg.
Er sagte, die Funktion sei einer Ende-zu-Ende-Verschlüsselung ähnlich, was „bedeutet, dass niemand Ihre Konversationen lesen kann, nicht einmal Meta oder WhatsApp.“
Obwohl die Plattformen selbst die Konversationen nicht lesen können, verschwinden sie auch, wenn der Benutzer seine Sitzung beendet.
Mashable 101-Fanfavoriten: Stimmen Sie für Ihren Lieblingsschöpfer Heute!
„Um das Beste aus der überpersönlichen Intelligenz herauszuholen, brauchen wir alle Möglichkeiten, sensible Themen auf eine Weise zu diskutieren, zu der sonst niemand Zugang hat“, schrieb Zuckerberg.
Datenschutz- und Sicherheitsbedenken im Inkognito-Chat
Das Verschwinden von Chats wirft Sicherheitsfragen auf, die Zuckerberg aufgeworfen hat Meta-Blogbeitrag zum Inkognito-Chat Ich habe es nicht berührt.
Während absolute Privatsphäre Benutzer dazu veranlassen könnte, sensible Fragen zu ihrer Gesundheit, ihren Finanzen oder ihrer Karriere zu stellen, würde sie Meta auch davor schützen, zu erfahren, wann Benutzer möglicherweise dringend Hilfe oder Intervention benötigen.
Lichtgeschwindigkeit pürierbar
Beispielsweise könnten Gespräche mit der Meta-KI von WhatsApp, die darauf hinweisen, dass ein Benutzer darüber nachdenkt, sich selbst zu verletzen oder Selbstmord zu begehen, laut Mashable-Tests eine menschliche Überprüfung auslösen. Gleiches gilt für Diskussionen über Gewalt.
Diese Nachrichten können im Inkognito-Chat nicht identifiziert werden und es erfolgt keine rückwirkende Aufzeichnung dieser Nachrichten.
Meta sagte, dass es Sicherheitsvorkehrungen implementiert, um potenziell schädliche Ansprüche abzulehnen, und dass Meta AI riskanten Anfragen nicht nachkommen wird. Darüber hinaus werden Benutzer, die wiederholt böswillige Behauptungen einreichen, nach Angaben des Unternehmens vorübergehend gesperrt.
Beide Szenarien – suizidales Verhalten und allgemeine Gewalttaten – sind Gegenstand von Klagen und strafrechtlichen Ermittlungen gegen die größten KI-Unternehmen.
OpenAI wurde mehrfach verklagt Von den Familien trauernder Benutzer. Das behaupten sie OpenAI‘S ChatGPT Sie brachten ihren Angehörigen bei, Selbstmord zu begehen. OpenAI hat diese Vorwürfe zurückgewiesen In einem Fall starb ein 16-Jähriger.
Unabhängig davon hat der Generalstaatsanwalt von Florida kürzlich eine strafrechtliche Untersuchung eingeleitet, um zu prüfen, ob dies der Fall ist ChatGPT gab einem Schützen einen „wichtigen“ Rat der angeblich im April 2025 bei einer Schießerei zwei Menschen und fünf weitere Menschen getötet hat.
Google, der Hersteller von Chatbot Gemini, wurde Anfang des Jahres von der Familie eines erwachsenen Mannes wegen Totschlags verklagt, nachdem… Gemini soll ihn dazu überredet haben, sich umzubringen.
Google sagte in einer Erklärung zu den Vorwürfen: „Unsere Modelle funktionieren im Allgemeinen bei schwierigen Gesprächen dieser Art gut und wir investieren dafür erhebliche Ressourcen, aber leider sind unsere KI-Modelle nicht perfekt.“
Die Klagen gegen Google und OpenAI stützen sich stark auf Chat-Transkripte von Nutzern.
Können Teenager Inkognito-Chat mit Meta AI nutzen?
Um die Schutzmaßnahmen für jugendliche Meta-KI-Benutzer zu verbessern, hat das Unternehmen kürzlich eine Funktion eingeführt, die es Eltern ermöglicht, ihre privaten Daten einzusehen. Themen zur Diskussion mit Amnesty International.
Laut Meta ist der Inkognito-Chat für Benutzer ab 18 Jahren gedacht. Benutzer werden gebeten, ihr Alter zu bestätigen, bevor sie die Funktion nutzen. Wenn gesetzlich vorgeschrieben, implementiert Meta zusätzliche Alterssicherungsmethoden, um zu überprüfen, ob ein Benutzer volljährig ist.
Sarah Gardner, CEO der Heat Initiative, einer Interessenvertretung, die sich auf Online-Sicherheit und Unternehmensverantwortung konzentriert, äußerte Bedenken hinsichtlich des Inkognito-Chats, insbesondere angesichts der früheren Einführung von KI-gestützten Chatbots durch Meta Erlaubte „sinnliche“ Gespräche mit Kindern.
„Die heute angekündigten neuen Funktionen sollten bei Eltern die Alarmglocken schrillen lassen“, sagte Gardner in einer Erklärung gegenüber Mashable. „Wir haben kein Vertrauen in die Erfolgsbilanz von Meta, wenn es um die Altersüberprüfung geht, daher müssen sie viele Fragen dazu beantworten, wie die Sicherheit von Kindern gewährleistet werden kann.“