Roboter als psychische Wohlbefindenstrainer: Aussehen entscheidet über Erfolg
Roboter können im Arbeitsumfeld als psychische Wohlbefindenstrainer nützlich sein, wobei ihre Effektivität zum großen Teil von ihrem Aussehen abhängt. Forscher der Universität Cambridge führten eine Studie in einem Technologieberatungsunternehmen durch, in der 26 Mitarbeiter an wöchentlichen, von Robotern geleiteten Wohlbefindens-Sitzungen teilnahmen. Obwohl die Roboter identische Stimmen, Gesichtsausdrücke und Skripte hatten, beeinflusste ihr äußeres Erscheinungsbild, wie die Teilnehmer mit ihnen interagierten.
Teilnehmer, die mit einem spielzeugähnlichen Roboter ihre Wohlbefindensübungen durchführten, fühlten sich stärker mit ihrem “Coach” verbunden als Teilnehmer, die mit einem humanoiden Roboter arbeiteten. Die Forscher erklären, dass die Wahrnehmung von Robotern durch die Populärkultur beeinflusst wird, in der die Vorstellungskraft die einzige Grenze für ihre Fähigkeiten darstellt. Im realen Leben können Roboter jedoch oft nicht den Erwartungen gerecht werden.
Da der spielzeugähnliche Roboter einfacher aussieht, könnten die Teilnehmer niedrigere Erwartungen gehabt und es als leichter empfunden haben, sich mit ihm zu verbinden. Die Teilnehmer, die mit dem humanoiden Roboter arbeiteten, stellten fest, dass ihre Erwartungen nicht der Realität entsprachen, da der Roboter keine interaktiven Gespräche führen konnte.
Trotz der Unterschiede zwischen Erwartungen und Realität zeigen die Ergebnisse der Forscher, dass Roboter ein nützliches Instrument zur Förderung des psychischen Wohlbefindens am Arbeitsplatz sein können. Die Ergebnisse werden am 15. März auf der ACM/IEEE International Conference on Human-Robot Interaction in Stockholm präsentiert.
Die Weltgesundheitsorganisation empfiehlt Arbeitgebern, Maßnahmen zur Förderung und zum Schutz des psychischen Wohlbefindens am Arbeitsplatz zu ergreifen. Die Umsetzung von Wohlbefindenspraktiken wird jedoch häufig durch mangelnde Ressourcen und Personal eingeschränkt. Roboter haben in der Frühphase einige Erfolge gezeigt, um diese Lücke zu schließen, aber die meisten Studien zu Robotern und Wohlbefinden wurden in einem Labor durchgeführt.
“Wir wollten die Roboter aus dem Labor holen und untersuchen, wie sie in der realen Welt nützlich sein könnten”, sagte Dr. Micol Spitale, die Hauptautorin der Studie.
In Zusammenarbeit mit dem Technologieunternehmen Cambridge Consultants entwickelten die Forscher ein betriebliches Wohlbefindensprogramm unter Einsatz von Robotern. Im Verlauf von vier Wochen wurden die Mitarbeiter durch vier verschiedene Wohlbefindensübungen geleitet, die entweder vom QTRobot (QT) oder vom Misty II-Roboter (Misty) durchgeführt wurden.
Beide Roboter verfügen über Bildschirmgesichter, die mit unterschiedlichen Gesichtsausdrücken programmiert werden können.
“Wir haben verschiedene Wohlbefindens-Coaches interviewt und dann unsere Roboter so programmiert, dass sie eine Coach-ähnliche Persönlichkeit mit hoher Offenheit und Gewissenhaftigkeit haben”, sagte die Co-Autorin Minja Axelsson. “Die Roboter wurden so programmiert, dass sie dieselbe Persönlichkeit, dieselben Gesichtsausdrücke und dieselbe Stimme hatten. Der einzige Unterschied zwischen ihnen war die physische Roboterform.”
Die Teilnehmer wurden von einem Roboter in einem Besprechungsraum durch verschiedene Übungen der Positiven Psychologie geleitet. Jede Sitzung begann damit, dass der Roboter die Teilnehmer bat, sich an ein positives Erlebnis zu erinnern oder etwas in ihrem Leben zu beschreiben, für das sie dankbar waren. Der Roboter stellte anschließend Nachfragen. Nach den Sitzungen wurden die Teilnehmer gebeten, den Roboter anhand eines Fragebogens und eines Interviews zu bewerten. Die Teilnehmer absolvierten einmal pro Woche eine Sitzung über einen Zeitraum von vier Wochen und arbeiteten in jeder Sitzung mit demselben Roboter.
Die Teilnehmer, die mit dem spielzeugähnlichen Misty-Roboter arbeiteten, berichteten, dass sie eine bessere Arbeitsbeziehung mit dem Roboter hatten als die Teilnehmer, die mit dem kindlich anmutenden QT-Roboter arbeiteten. Die Teilnehmer hatten insgesamt eine positivere Wahrnehmung von Misty.
“Es könnte daran liegen, dass der Misty-Roboter eher spielzeugähnlich ist und damit den Erwartungen der Teilnehmer entsprach”, sagte Spitale. “Da QT jedoch humanoider ist, erwarteten die Teilnehmer, dass er sich wie ein Mensch verhält, was möglicherweise dazu führte, dass die Teilnehmer, die mit QT arbeiteten, leicht enttäuscht waren.”
“Die häufigste Antwort der Teilnehmer war, dass ihre Erwartungen an den Roboter nicht der Realität entsprachen”, sagte Professorin Hatice Gunes vom Department of Computer Science and Technology der Universität Cambridge, die die Forschung leitete. “Wir haben die Roboter mit einem Skript programmiert, aber die Teilnehmer hofften auf mehr Interaktivität. Es ist unglaublich schwierig, einen Roboter zu erschaffen, der zu einem natürlichen Gespräch fähig ist. Neue Entwicklungen in großen Sprachmodellen könnten in dieser Hinsicht wirklich von Vorteil sein.”
“Unsere Wahrnehmungen darüber, wie Roboter aussehen oder sich verhalten sollten, könnten die Einführung von Robotik in Bereichen, in denen sie nützlich sein können, behindern”, sagte Axelsson.
Obwohl die in der Studie verwendeten Roboter nicht so fortgeschritten sind wie C-3PO oder andere fiktive Roboter, gaben die Teilnehmer dennoch an, dass sie die Wohlbefindensübungen hilfreich fanden und offen dafür waren, in Zukunft mit einem Roboter zu sprechen.
KI-basierte Gepäckkontrolle: Amsterdamer Flughafen Schiphol testet innovative Technologie
Am Flughafen Amsterdam Schiphol wird derzeit eine neue Generation künstlicher Intelligenz-Technologie zur Gepäckkontrolle getestet. Dieser Schritt soll möglicherweise die langen Warteschlangen an den Sicherheitskontrollen reduzieren und den Prozess beschleunigen. Das sogenannte “Projekt DARTMOUTH“, entwickelt in Zusammenarbeit mit der Sicherheitstechnologiefirma Pangiam, soll KI und Big-Data-Analysen in den Bereich der Flugsicherheit einführen und potenziell verbotene Gegenstände im Handgepäck identifizieren. Amsterdam Schiphol ist der erste europäische Flughafen, der diese Technologie in kleinem Maßstab testet, mit Plänen zur großflächigen Einführung bei Erfolg.
KI-Stimmenimitation: Risiken und Verteidigung der Zukunft
Laut einem Bericht des Wired Magazins ist die Technologie zur Erstellung überzeugender und realistischer Stimm-Deepfakes immer häufiger anzutreffen, insbesondere in kontrollierten Situationen oder bei umfangreichen Sprachaufnahmen einer Person. Im Februar veröffentlichte Joseph Cox, ein Reporter von Motherboard, seine Ergebnisse, nachdem er fünf Minuten von sich selbst aufgenommen und dann den generativen KI-Service ElevenLabs verwendet hatte, um Stimm-Deepfakes zu erstellen, die das Sprachauthentifizierungssystem einer Bank überlisteten. Wie bei anderen generativen KI-Anwendungen in anderen Medien, wie etwa bei Text-Generierungs-Chatbots, können Stimm-Deepfake-Dienste jedoch nicht immer perfekte Ergebnisse liefern.
Lea Schönherr, eine Sicherheits- und adversative Maschinenlernforscherin am CISPA Helmholtz-Zentrum für Informationssicherheit in Deutschland, erklärt, dass je nach Angriffsszenario Echtzeitfähigkeiten und die Qualität der gestohlenen Stimmprobe berücksichtigt werden müssen. Obwohl oft gesagt wird, dass nur wenige Sekunden der gestohlenen Stimme ausreichen, haben die Qualität und die Länge einen großen Einfluss auf das Ergebnis des Audio-Deepfakes.
Digitale Betrügereien und Social-Engineering-Angriffe wie Phishing sind eine immer größer werdende Bedrohung. Forscher weisen jedoch darauf hin, dass Betrugsversuche, bei denen Angreifer ein Opfer anrufen und versuchen, jemanden zu imitieren, den das Opfer kennt, seit Jahrzehnten existieren, ohne die Verwendung von KI. Die Langlebigkeit dieser Betrugsmaschen bedeutet, dass sie zumindest etwas wirksam sind, um Menschen dazu zu bringen, den Angreifern Geld zu schicken.
Crane Hassold, ein erfahrener Social-Engineering-Forscher und ehemaliger digitaler Verhaltensanalyst des FBI, sagt, dass diese Betrugsmaschen schon immer existiert haben. In den meisten Fällen funktionieren sie nicht, aber manchmal erwischen sie ein Opfer, das aus irgendeinem Grund bereit ist, ihnen zu glauben. Oft schwören diese Opfer, dass die Person, mit der sie gesprochen haben, die imitierte Person war, während es in Wirklichkeit nur ihr Gehirn ist, das Lücken füllt.
Hassold berichtet, dass seine Großmutter Mitte der 2000er Jahre Opfer eines Imitationsbetrugs wurde, als Angreifer anriefen und vorgaben, er sei es, und überzeugten sie, ihnen 1.500 US-Dollar zu schicken.
“Bei meiner Großmutter hat der Betrüger nicht gesagt, wer anruft, sondern nur angefangen, darüber zu sprechen, wie er auf einem Musikfestival in Kanada festgenommen wurde und sie Geld für die Kaution schicken sollte. Ihre Antwort war: ‘Crane, bist du das?’ und dann hatten sie genau das, was sie brauchten”, erzählt er. “Betrüger bringen ihre Opfer im Grunde dazu, das zu glauben, was sie wollen.”