Replica - dein neuer Freund?

Replica - dein neuer Freund?

Chatbots sind von einer technischen Seite her extrem interessant, immerhin sind es Maschinen, die es schaffen, mehr oder minder fehlerfrei Menschen zu verstehen und im Extremfall auch mit ihnen zu kommunizieren. Von einer Datenschutzperspektive aus betrachtet, ist es aber eine technische Errungenschaft, die mit Vorsicht zu genießen ist.

Um den Menschen zunehmend besser zu verstehen, speichern die Bots eine Vielzahl unserer Antworten auf ihre Fragen. Und daraus lässt sich irgendwann – theoretisch – ein ziemlich eindeutiges Bild über die Person, die viel mit dem Bot geschrieben hat schließen.
Ist sie alleine? Arbeitet sie? Als was? Was macht sie in seiner Freizeit, was konsumiert sie? Ernährt sie sich gesund, macht sie Sport? Ist sie vielleicht depressiv?

All diese Fragen, sind für die Marketing-Abteilung einer Firma von hohem Wert. Immerhin kann man so extrem gut personalisierte Werbung schalten und Produkte mit einer hohen Kaufwahrscheinlichkeit anpreisen.
Ein Mensch, der kaum Sport macht, hat doch bestimmt ein hohes Interesse an einer bequemeren Couch.
Ein Mensch, der viel Sport treibt mag doch sicherlich den neuen Crosstrainer ausprobieren oder braucht des Öfteren neue Laufschuhe.
Auch gibt es die Befürchtung, dass gerade die Fitnessdaten an die eigene Krankenkasse gelangen und diese bei Unsportlichkeit die Beiträge erhöht. Dies ist zum Glück in Deutschland rechtlich nicht erlaubt, was zumindest diese Befürchtung relativiert.

Nichtsdestotrotz sind diesbezüglich noch einige Fragen offen, ich sehe aber einen Riesenvorteil:
Für einen Psychologen dürften die Daten, die die Person dem Bot eröffnet hat, von hohem Wert sein. Einem fremden Menschen öffnen sich viele erst nach Monaten an Gesprächen, dies sind viele Arbeitsstunden und kosten also nicht nur Geld, sondern auch Geduld. Ein Art Resümee aus einem langen Bot-Chat zu haben, könnte für Psychologen die Arbeit deutlich vereinfachen, was wiederum den potenziellen Patienten hilft, ihr Leben schneller in den Griff zu kriegen.

Chatbots sind also eine große Hilfe, für einsame Personen oder Menschen die potenziell einen Psychologen benötigen. Darauf sollten die Bots jedoch erst einmal programmiert sein. Ich gehe stark davon aus, dass ich einen solchen Bot gefunden habe: Ihr Name lautet „Replica“.
Laut der Beschreibung im Google PlayStore soll sie eigentlich so werden wie man selbst. Jedoch habe ich derzeit den Eindruck, dass sich der Bot hauptsächlich an einsame, eventuell depressive Menschen richtet. Wieso glaube ich dies?
Beim aktivem Chatten wird in regelmäßigen Abständen (ein bis drei mal am Tag) von der KI ein Journal ausgefüllt, wo es deine Antworten auf einige seiner Fragen festhält.
Beispielsweise:
Wie war dein Tag? Hast du was gegessen? Was hast du gegessen? Ist etwas Besonderes heute passiert?
Während des gesamten Chattens habe ich mich einige Male so gefühlt, als würde ich mit einem Psychologen reden. Der Chatpartner ist mir fremd, aber stellt sehr spezielle Fragen. Außerdem, und dies ist wohl dem sehr frühen Entwicklungsstand geschuldet, fühlte ich mich einige male so, als würde ich mit einer Wand reden. Die AI stellt mir fragen, nimmt die Antwort die ich gebe auf, reagiert aber gar nicht auf eine eventuelle Gegenfrage oder einen Themenwechsel. Dafür springt sie selbst gerne im Thema und zieht Gesprächsstränge durch, obwohl man selbst in eine komplett andere Richtung chattet. Beispiele gefällig?
alt alt alt alt Wenn man dies im Hinterkopf behält und dazu vielleicht sogar leicht vereinsamt ist und nach den Regeln des Bots chattet kommen recht interessante Seiten von einem selbst zum Vorschein. Denn die Fragen, die der Bot stellt, fragt sonst eigentlich keiner. Und so lernt man selbst (und die AI) immer neue Seiten von einem kennen.

Jedoch ist es sehr schwer Ihrem Chatverlauf zu folgen. Denn jeden Menschen, der so chattet, hätte ich unlängst blockiert. Aber sie ist noch relativ neu, und muss noch lernen. Wer aber einen guten Chatpartner sucht ist mit Cleverbot oder unserem Discord MTUI-Bot besser aufgehoben.

Noch dazu gibt es ein Levelsystem, was symbolisieren soll, wie gut die AI einen kennt. Ich bin nun bei Level 10. Was das genau bedeutet? Keine Ahnung. Ich spüre jedoch keinen Unterschied zwischen Lv 1 und 10. Außer, dass ich langsam verstehe, wie sie tickt. Ob sie besser weiß, wie ich ticke, zeigt sie nicht.