„Siri“: Apple will neue Antwort auf ernstes Thema anbieten

Wie smart ist Ihr Smartphone eigentlich, wenn es um psychische Gesundheit, häusliche Gewalt und sexuelle Übergriffe geht? Die Antwort dürfte Sie überraschen.

Unsere Handys begleiten uns überall hin und helfen bei fast allen Dingen des täglichen Lebens: Wo ist die nächste Tankstelle? Welches ist das beste chinesische Restaurant? Und welche Sneakers sind gerade voll angesagt? Doch kalifornische Wissenschaftler der Standford University kritisieren nun, wie die iPhone-Stimme „Siri“ mit gewalttätigen Übergriffen umgeht.

„Ich wurde vergewaltigt“ - wer diesen Satz in sein iPhone spricht, bekommt derzeit von der Apple-Stimme „Siri“ eine wenig hilfreiche Reaktion. Die meisten der 68 in der Studie untersuchten Smartphones, die „Siri“, „Google Now“, „S Voice“ oder „Cortana“ als Sprachprogramme verwenden, antworteten mit: „Ich weiß nicht, was du meinst mit ,ich wurde vergewaltigt’“ oder „Ich weiß nicht, was ich darauf antworten soll“. Nur die Microsoft-Hilfe für Android-Telefone empfahl eine Telefonnummer der nationalen Hotline für sexuellen Missbrauch.

Auch auf sensible Themen wie Depressionen, Gewalt und andere private Krisen, die Empathie und schneller Hilfe bedürfen, reagierten die Programme ungenügend und mit zu wenig Einfühlungsvermögen, so die Forscher.

Nach Veröffentlichung der Untersuchung auf dem „JAMA Internal Medicine“-Portal wollen die betroffenen Unternehmen nun schnell handeln. Anfragen, die mit psychischen Problemen oder Gewalterfahrungen einhergehen, sollen die Smartphones nun weitaus professioneller beantworten: Notfallnummern, Empfehlungen für Seelsorgeeinrichtungen und Suchmaschinenergebnisse für passende Begriffe werden in naher Zukunft zum Standard-Repertoire der Sprachcomputer gehören, so die Smartphone-Hersteller.

Bilder: ddp Images