^

 

 Suche  | Sitemap  | Mediadaten  | Kontakt  | Impressum  | Datenschutz
       
Donnerstag, 28. März 2024
   
 

Hören mit KI

« Previous 1 2 3 4 5 Next » item_prefix1item_suffix item_prefix2item_suffix item_prefix4item_suffix item_prefix5item_suffix

Ihre Lösungen sind aber auch in ganz anderen Branchen gefragt?
Dagmar Schuller:
Das stimmt, etwa im Call-Center-Bereich: Ein Anrufer meldet sich; denn er hat ein Problem und ist verärgert. Der Agent im Call Center muss ihn an diesem Punkt abholen, und unsere Lösung hilft ihm dabei. Sie misst z. B., wie sich die Emotionalität des Anrufers während des Gesprächs verändert. Das kann im Nachgang zu Trainingszwecken dienen. Die Werte stehen aber auch schon während des Gesprächs in Echtzeit zur Verfügung. Der Call Center Mitarbeiter sieht das als Kurve vor sich auf dem Bildschirm, und er kann dieses unmittelbare Feedback für seine Gesprächsführung nutzen.

Wichtige Rückschlüsse kann Emotionserkennung auch in der Marktforschung liefern. Hier lässt sich z. B. anhand bestimmter Parameter messen, wie gut ein Proband eine Marke oder ein Produkt findet. Traditionell nutzt man hier Befragungen Face-to-Face. Doch es kann vorkommen, dass ein Proband etwas anderes sagt, als er tatsächlich meint. „Eigentlich ganz gut“ ist vielleicht nur eine höfliche Umschreibung von „nicht gut“.


Zu Ihren Kunden gehören aber z. B. auch BMW und Daimler…
Dagmar Schuller:
Im Automobilbereich geht es zum einen um die Analyse von Geräuschen im Fahrzeug, etwa von Motorgeräuschen. Gegenstand ist aber auch, was im Auto gesprochen wird. Das ist ein bisschen wie bei K.I.T.T., dem Auto in der TV-Serie Knight Rider. Hier versteht das intelligente Auto seinen Besitzer, den Serien-Helden Michael Knight, perfekt. Es merkt, wenn er müde oder verärgert ist. Es gibt ihm Tipps. Es sagt zum Beispiel „Du bist sehr müde.“ Und bietet an, den Autopiloten zu starten. Heutige Sprachsysteme in Autos können das noch nicht. Doch unser System kann Müdigkeit oder auch Trunkenheit an der Stimme erkennen. Es kann Warnhinweise geben oder auch für Komfort sorgen.

Ihre KI wird für verschiedenste Sprachen genutzt. Wie ist das mit kulturellen Unterschieden? Ich stelle mir z. B. mal ein italienisches Paar vor, das sich streitet. Für jemanden aus Deutschlang klingt das vielleicht dramatischer, als es tatsächlich ist. Berücksichtig die KI auch das?
Dagmar Schuller:
Ja. Wobei der Grundstock der Emotionserkennung unabhängig von einer bestimmten Sprache funktioniert. Die Basis-Emotionen lassen sich ohne eine bestimmte Sprache oder Kultur herleiten. Natürlich ist es immer besser, wenn Sie bestimmte Sprach-Corpora berücksichtigen – etwa für Italienisch, Russisch, Chinesisch. Wir haben so etwas bereits vor Jahren entwickelt und z. B. in der Marktforschung mit der GfK getestet. Man kann die Erkennung verbessern, wenn man den Bezug zu einem bestimmten Sprachkorpus hat. Aber diese Corpora sitzen auf unseren Ur-Emotionen. In diesen Ur-Emotionen sind wir Menschen überall gleich.

In der Steinzeit gab es noch keine Sprache. Das Gegenüber grunzte Sie an. Und in der Art und Weise, wie es grunzte, erkannten Sie, ob Sie laufen müssen oder bleiben können. Das ist wie bei einem knurrenden Hund. Man merkt, ob er spielen will oder gleich zubeißen wird. Der Bezug zum Kulturkreis verbessert das nur noch mal. Chinesische Konnotatoren werden eher merken, ob ein chinesischer Sprecher mehr oder weniger verärgert ist. Andere erkennen das grundsätzlich auch, können aber nicht so genau abstufen. Bei den streitenden Italienern ebenso. Wir erleben sie als hoch dramatisch. Ein Italiener würde sagen: Alles normal; das ist in fünf Minuten erledigt. Es ist der feine Unterschied – und nichts anderes als eine zusätzliche Modellvariante, die das System trainieren kann.


Haben Sie eigentlich auch mal das Sprechen von Politikern analysiert?
Dagmar Schuller:
Tatsächlich haben wir auch daran geforscht – im österreichischen Wahlkampf und auch bei Trump und Clinton. Bei Trump war erstaunlich, dass er in unserer Analyse eine sehr hohe „agreeableness“ erzielte. Die unterbewusste Wirkung, die die Art seines Sprechens auf die Leute hat, war überraschend positiv. Es kann ein Grund sein, warum er die Wahl gewonnen hat.

Wo steht Ihr Unternehmen aktuell beim Wettbewerb um KI im Audo-Bereich?
Dagmar Schuller:
Wir sind wirklich stolz darauf, der weltweite Innovationsführer auf dem Gebiet der Emotionserkennung aus der Stimme zu sein. Mit unserer Forschung an der TU München haben wir die Basis für die Technologie gelegt, die seither das ein oder andere Mal kopiert wurde. Die Grundlegende Idee der Emotionserkennung aus Sprache stammt von uns, also aus Deutschland und nicht aus den USA, wie viele manchmal denken.

Heute, in der Zusammenarbeit mit Unternehmen, veröffentlichen wir natürlich weniger. Aber früher war das der Fall. Der Begriff Deep Learning etwa ist seit 2012/13 ein viel benutztes Buzzword. Wir waren die allerersten, die 2009 Ansätze von Deep Learning auf Audio-Daten angewandt haben. Wir waren die ersten, die nachgewiesen haben, dass man mit größeren neuronalen Netzen auch bessere Ergebnisse erzielen kann. Überhaupt hat niemand vor uns Emotionserkennung in Sprache gemacht. - Also bahnbrechende Dinge, die wir auch auf Konferenzen und in Journalen vorgestellt haben.


In welchen Punkten heben Sie sich heute von anderen ab?
Dagmar Schuller:
Ein entscheidender Unterschied ist, dass unsere Konkurrenz ihre Systeme oft mit Schauspielern trainiert. Wenn die dann vor dem System Ärger spielen, dann ist die Leistung beim Erkennen oft extrem hoch – häufig sogar besser als bei unserem System. Das liegt aber daran, dass diese anderen Systeme nicht auf normale Menschen trainiert sind, die ihre Emotionen ganz normal äußern. Wenn hingegen unserem System eine Emotion vorgespielt wird, heißt das noch lange nicht, dass es diese Emotion auch als solche erkennt. Es ist eben auf Otto Normalverbraucher konditioniert und nicht auf Meryl Streep, die eine Emotion als Schauspielerin ganz anders darstellt. Das sind wesentliche Unterschiede. Wenn jemand verärgert ist, ist er nicht nur verärgert. Vielleicht ist er zugleich frustriert oder traurig. Emotionen haben unterschiedliche Ausprägungen. Sie können miteinander vermischt sein. Und die Maschine muss nun entscheiden, ab welchem Grad sie wie erkennt. Um diese graduellen Applikationen zu erhalten, ist unser System das Beste. 

Auch den paralinguistischen Bereich berücksichtigen viele Wettbewerber nicht. Viele Klassifikationssysteme arbeiten nach wie vor textbasiert, während sie nonverbale Äußerungen kaum klassifizieren. Hinzu kommt unsere klassische Erkennung akustischer Szenen, die wir auch bei Gesprächen vorschalten können. Auch das haben die anderen nicht. Laut Gartner Report vom August 2018 zum Thema emotionale AI sind wir in unserem Bereich nicht nur der Anbieter mit dem breitesten Erfahrungsspektrum und dem höchsten Innovationsfaktor, sondern auch der mit den besten Anwendungsmöglichkeiten. Da wurde weltweit analysiert. Wir sind im Gegensatz zu der Konkurrenz auch breiter aufgestellt. Unsere Technologie ist im Gesundheitsbereich, in der Automobilwirtschaft, im Call-Center Bereich sowie in der Marktforschung einsetzbar. Viele konkurrierende Unternehmen sind hingegen auf eine Branche, häufig das Marketing, spezialisiert. Und wir sind ständig auf der Suche nach weiteren Anwendungsbereichen.

 

Veröffentlicht am: 08.09.2019

AusdruckenArtikel drucken

LesenzeichenLesezeichen speichern

FeedbackMit uns Kontakt aufnehmen

FacebookTeile diesen Beitrag auf Facebook

Nächsten Artikel lesen

Vorherigen Artikel lesen

 

Neu:


 

 

 

 

Werbung

Werbung

 

 

 

Werbung

             

 

Besuchen Sie auch diese Seiten in unserem Netzwerk:
| Börsen-Lexikon
| Fotograf Fotomensch Berlin
| Geld & Genuss
| gentleman today
| genussmaenner.de
| geniesserinnen.de
| instock.de
| marketingmensch | Agentur für Marketing, Werbung & Internet
| Unter der Lupe

© 2024 by frauenfinanzseite.de, Groß-Schacksdorf. Alle Rechte vorbehalten.