Können Roboter emotional mit Menschen kommunizieren? Können Roboter bei der Kommunikation mit Menschen neben der Sprache auch emotionale Informationen durch Mimik, Stimmlage, Tonfall, Augenkontakt oder sogar Körpersprache vermitteln? Wir wissen, dass die Kommunikation zwischen Menschen natürlich und emotional ist. Daher erwarten die Menschen bei der Interaktion zwischen Menschen und Robotern auch, dass Roboter über die gleichen emotionalen Fähigkeiten verfügen wie Menschen. Daher ist die Frage, wie man Robotern menschliche Emotionen verleihen kann, zu einem heißen Thema in der Forschung zur künstlichen Intelligenz geworden. Abbildung 1. Roboter, der mit Menschen kommuniziert Wie bringt man Roboter dazu, Emotionen zu „verstehen“? Bei der Erziehung ihrer Kinder sagen chinesische Eltern oft, dass diese im Umgang mit anderen die „Augenbrauen und Augen“ lesen sollten. Die „hochgezogenen Augenbrauen und der gesenkte Blick“ bedeuten hier, dass wir bei der Kommunikation mit anderen nicht nur verstehen sollten, was die andere Person sagt, sondern auch lernen sollten, den Tonfall, den Ausdruck und die Körpersprache der anderen Person zu beobachten und die darin enthaltenen emotionalen Informationen zu verstehen. Nur auf diese Weise können wir die wahren Gedanken des anderen besser verstehen und reibungslos kommunizieren. Emotionen spielen eine wichtige Rolle im emotionalen Verhalten und bei emotionalen Entscheidungen von Menschen, und emotionale Fähigkeiten sind auch eines der wichtigen Zeichen menschlicher Intelligenz. Abbildung 2 Der emotionale Roboter „Einstein“ (Hanson Robotics, USA) Ich frage mich, ob Ihnen aufgefallen ist, dass menschliche Gefühlsausdrücke viele gemeinsame Merkmale oder Regeln aufweisen. Nehmen wir als Beispiel die Körpersprache. Körpersprache kommt aus dem Leben und besteht beispielsweise aus Nicken, Kopfschütteln, Augenkontakt, Gesten und Bewegungen verschiedener Körperteile. Beispielsweise zeigt das Nicken die Zustimmung einer Person zu einem Ereignis an. Kopfschütteln zeigt den Widerstand einer Person gegen ein Ereignis an; ständiges Schwanken eines bestimmten Körperteils spiegelt emotionale Anspannung wider; wenn eine Person traurig ist, wird sie sich nicht nur ein trauriges Gesicht machen, sondern auch auf die Brust schlagen und mit den Füßen stampfen. Wenn eine Person glücklich ist, lächelt und tanzt sie. Kurz gesagt: Verschiedene Körperbewegungen sind auch ein natürlicher Ausdruck und Ausdruck von Emotionen. Was ist Affective Computing? Zunächst definieren wir hier den Begriff „Emotional Computing“. „Emotionales Computing“ soll Robotern die Fähigkeit verleihen, verschiedene emotionale Eigenschaften ähnlich wie Menschen zu beobachten, zu verstehen und zu erzeugen und Robotern letztlich zu ermöglichen, auf natürliche, emotionale und lebendige Weise wie Menschen zu interagieren. Die Forschung zum Affective Computing lässt sich grob in drei Teile unterteilen: Affektmodellierung, Affekterkennung und Affektgenerierung. Einfach ausgedrückt: Zuerst finden wir die Gesetze der menschlichen Emotionen heraus und bestimmen die charakteristischen Signale, die durch Emotionen erzeugt werden. dann drücken wir diese Gesetze mathematisch aus und erstellen ein mathematisches Modell, das Roboter ausführen können; Lassen Sie die Roboter schließlich das Modell ausführen und ihre eigenen Emotionen „produzieren“. Ist affektives Computing möglich? Affektives Computing ist seit seiner Einführung von Kontroversen begleitet. Manche Forscher sind der Ansicht, dass Emotionen unberechenbar und nur dem Menschen eigen seien und dass es für Roboter unmöglich sei, sie zu simulieren oder zu erzeugen. Gleichzeitig ist Affective Computing im Bereich der künstlichen Intelligenz ein unnötiger Luxus. Manche Leute meinen, menschliche Emotionen seien sehr komplex und oft miteinander verflochten, und um sie auszudrücken, seien möglicherweise riesige Datenmengen erforderlich, was durch „Berechnung“ nicht realistisch sei. Andere haben vorgeschlagen, dass „die Intensität emotionaler Gefühle und Ausdrücke normalerweise keine lineare Funktionsbeziehung zu den Änderungen verschiedener physiologischer Indikatoren darstellt. Die meisten von ihnen sind nichtlineare, diskontinuierliche, unscharfe, probabilistische und schwankende Funktionsbeziehungen.“ Im Zuge von Debatten entwickeln sich die Dinge ständig weiter. Wir müssen uns darüber im Klaren sein, dass die Umsetzung des Emotional Computing schwierig und komplex ist und dass sie unvermeidlich ist. Ich glaube, dass Roboter in naher Zukunft in der Lage sein werden, einen natürlichen und harmonischen Gefühlsaustausch mit uns Menschen zu führen. |
>>: Der „kleine Apfel“ von vor 400 Millionen Jahren war wie ein Anker am Meeresboden verankert!
Die diesjährige 3.15-Gala deckte das Chaos bei de...
Zusammengestellt von Zhou Shuyi und Wang Xiang Hy...
Planung und Produktion Quelle: Neugieriger Doktor...
Wie sieht eine Stadt aus, in der es genauso viele...
Mehr Muskeltraining ist gut für uns, aber wir müs...
Kaufen Sie einen Fernseher von Sony. Bei Großbild...
Anmerkung des Herausgebers: Nach der Abschlussprü...
Der Anpassungsplan für die Subventionen für Fahrz...
Das Recycling von Antriebsbatterien, das eng mit ...
Egal ob Mann oder Frau, sie alle möchten natürlic...
Der 5G- Markt befindet sich derzeit in einer Phas...
Apropos Harnwegsinfektion Ich glaube, alle haben ...
Die Bedeutung von Chatbots mit künstlicher Intell...