Ohrenkuss ist ein Magazin.
Es wurde 1998 gegründet.
Alle Texte im Magazin sind von Menschen mit Downsyndrom geschrieben.
1998 dachte man noch: Menschen mit Downsyndrom können nicht lesen und schreiben.
Ohrenkuss-Autorin Anna-Lisa Plettenberg sagt dazu:
«Ich will, dass alle wissen: Menschen mit Downsyndrom können lesen, schreiben und rechnen. Und dass die schlau sind!»
Dieser Text ist in einfacher Sprache geschrieben und erklärt verständlich, weshalb es das sehr schöne Magazin Ohrenkuss gibt. Obwohl ich mich beruflich den ganzen Tag mit Sprache beschäftige, sind Texte in leichter Sprache für mich immer eine Erholung. Ich mag es, dass sie ohne Nebelbomben und Wichtigtuerei auskommen und einfach nur versuchen, den Kern einer Aussage zu vermitteln. Kein Wunder also, dass eine der beliebtesten Rubriken im Magazin brand eins die «Leichte Sprache» ist. Dort, wie auch in seinen Büchern, übersetzt der Autor Holger Fröhlich komplexe Texte, wie politische Reden, wirtschaftliche Definitionen oder Pressetexte, in verständliches Deutsch. Diese offizielle Form von Sprache ist so aufgebaut, dass auch Menschen, die keine Muttersprachler sind oder Einschränkungen beim Lesen oder Schreiben haben, sie leicht verstehen können. Sätze in einfacher Sprache müssen zum Beispiel kurz sein, Fremdwörter werden vermieden und komplizierte Begriffe in eigenen kurzen Sätzen erklärt. Mittlerweile gibt es einige Apps und Websites, die solche Übersetzungen automatisiert vornehmen, etwa das deutsche Start-up Summ AI. Die Mitgründerin Flora Geske erklärt, vor welchen Problemen viele Leute stehen: «Meine Tante braucht aufgrund einer Behinderung leichte Sprache, und so kenne ich das Thema von klein auf. Sie interessiert sich sehr für Politik, aber die meisten Artikel und Informationen sind voll von Schachtelsätzen und Fremdwörtern. Da hat sie keine Chance, und das wollte ich unbedingt ändern!»
Auch einige Textgeneratoren können in einfacher Sprache formulieren, und bald wird diese Funktion sicher auch in Office-Software und in Betriebssystemen verankert sein. Stellen Sie sich vor, wie mühsam es für ein Kind mit Lerneinschränkung ist, sich durch komplizierte Schulbücher zu kämpfen. Mit solchen Tools könnte das vorhandene Material in einfache Sprache übersetzt werden, sodass das Kind den Stoff besser verstehen kann. Auch der Alltag wird leichter, denn ob es um wichtige Verhaltensregeln, Medikamenten-Hinweise, Nachrichten oder Gebrauchsanweisungen geht, der Zugang zu klarer und leicht verständlicher Information ist für mehr Menschen entscheidend, als wir üblicherweise denken. Und wir haben eine Verpflichtung, alle mitzunehmen, sagt Flora Geske: «Wir können nicht hinnehmen, dass Menschen außen vor bleiben – bei Bildung, Jobs, wichtigen Informationen und unserem gesellschaftlichen Diskurs. Und das haben wir selbst in der Hand! Alle Behörden und Unternehmen müssen die Perspektive wechseln und sich fragen: Ist das, was ich an Texten an meine Bürger/-innen oder Kund/-innen rausgebe, wirklich für alle verständlich?»
Experten gehen davon aus, dass 10 bis 14 Millionen Menschen in Deutschland von leichter Sprache profitieren. Denn auch soziale Isolation ist ein ernsthaftes Problem für viele mit kognitiven Einschränkungen. Einfache Sprache ermöglicht es, soziale Medien zu nutzen, Bücher zu lesen und am öffentlichen Diskurs teilzunehmen. Die Chance, überall und jederzeit in synthetisierter einfacher Sprache zu kommunizieren, hilft aber nicht nur denen, die sie lesen, sondern auch denen, die sie verwenden. Ärzte, Lehrerinnen und Angehörige können einfache Sprache verwenden, um komplexe Informationen oder Anweisungen verständlich zu machen und beispielsweise als Text mitzugeben. Ich kenne nur wenige Anwendungen für synthetische Inhalte, die mir auf den ersten Blick so sehr einleuchten wie in diesem Bereich.
Schließlich gibt es viele Menschen, die Medien nur mit Einschränkungen konsumieren können. Manche sind blind oder können altersbedingt immer weniger sehen, manche haben einen Hörverlust oder waren schon immer taub, manche sind in Bewegung oder Sprache eingeschränkt. Andere haben Probleme, umfangreiche Informationen zu verarbeiten. Wir alle gehören im Lauf unseres Lebens irgendwann zu einer dieser Gruppen. Die Digitalisierung hat neue technische Möglichkeiten für Information und Kommunikation gebracht – das ist bei generativer künstlicher Intelligenz nicht anders. Einige Beispiele wurden in diesem Buch bereits angesprochen: Durch die automatische Untertitelung von Serien oder Filmen gewinnen Menschen, deren Hörvermögen eingeschränkt ist. Die Fähigkeit von smarten Lautsprechern, Fernsehern oder Mobiltelefonen, menschliche Sprache zu verstehen und in Befehle umzuwandeln, hilft Leuten mit körperlichen Einschränkungen bei der selbstständigen und vielfältigen Gestaltung ihres Alltags, der Automatisierung des Haushalts, der Organisation von Terminen oder dem Vorlesen von Kochrezepten.
Durch die Entwicklung synthetischer Medien kommen weitere neue Möglichkeiten hinzu. Hier leistet insbesondere die Sprachsynthese einen unschätzbaren Beitrag zur sozialen Inklusion. Dabei kann vieles, was noch vor Jahren teure Software und enorme Rechenpower beanspruchte, heute im Smartphone geschehen. Bei Apple kann man beispielsweise einen Klon seiner eigenen Stimme erstellen, der auf dem Handy gespeichert wird – und bei einem Verlust der eigenen Stimme hilft, mit anderen zu kommunizieren. Generell kann Sprachsynthese für Menschen mit Sprachbehinderungen oder Einschränkungen die entscheidende Brücke zur Außenwelt sein. Durch Geräte, die Text in gesprochene Sprache umwandeln, können sie ihre Gedanken, Gefühle und Bedürfnisse äußern, was sonst schwierig oder gar unmöglich wäre. Auch für Menschen mit Lese- und Schreibschwächen wie Dyslexie kann Sprachsynthese hilfreich sein. Text-zu-Sprache-Software kann Bücher, Artikel oder Unterrichtsmaterialien vorlesen, sodass der Lernstoff leichter aufgenommen werden kann. Wer eine Sehbehinderung hat, dem dient die synthetische Sprache in Kombination mit anderen Technologien wie GPS oder Karten-Apps zur Orientierung auch in neuen Umfeldern. Durch die gesprochenen Anweisungen können sie sich sicher und eigenständig bewegen. Teilweise gibt es auch schon Apps, die mit der Kamera ein Bild von der Umgebung machen und erklären, welche Szenen oder Personen sie sehen. Und nicht zuletzt, so ist zumindest meine Wette, werden durch die Synthetisierung von Sprache virtuelle Assistenten, wie Alexa, Siri oder Google Assistant, endlich in der Lage sein, auch sinnvolle Aufgaben für uns zu erledigen.
Ich habe mit Aaron Jones über die Möglichkeiten durch synthetische Stimmen und Avatare gesprochen. Er ist Mitgründer und CEO des KI-Unternehmens Yepic in London. Zum Zeitpunkt unseres Gesprächs beendete er gerade ein Projekt für Oman. Dort wurden Wahlen durch generative künstliche Intelligenz begleitet. Jones’ Unternehmen generierte Videos und Audios auf der Grundlage von Daten. Oman hoffte, mit diesem Projekt mehr Menschen für die lokalen und landesweiten Wahlergebnisse zu interessieren. Innerhalb von Sekunden nach Bekanntgabe der Wahlergebnisse mussten Hunderte von Videos erstellt werden, in denen synthetische Moderatoren und Sprecher die Ergebnisse für die einzelnen Regionen vorlesen und interpretieren, wie in einer Nachrichtensendung. Dies konnte auch in verschiedenen Sprachen geschehen. Menschen, die gesprochene Sprache besser verstehen als schriftliche Texte, werden bislang meist von traditionellen Medien wie dem Fernsehen bedient. Für Jones ist das nur eine Frage der Zeit: «In den nächsten fünf Jahren werden KI-Tools zunehmend für einzelne Effekte oder Inhalte verantwortlich sein. Aber in zehn Jahren werden sie ein echter Konkurrent für traditionelle Bewegtbildmedien wie Film sein.»
Mit Software wie der von Yepic lassen sich heute schon Avatare aus Fantasiegestalten oder beliebigen Fotos von Menschen erstellen, aber auch live Gespräche in Zoom in andere Sprachen synchronisieren. So kann ich auf Deutsch an einem Meeting teilnehmen, meine Gesprächspartner sehen mein Gesicht, hören aber meine Stimme auf Portugiesisch, Russisch oder Griechisch. Inklusive der passenden Lippenbewegungen.
Auch für solche Liveübersetzungen werden Trainingsdaten verwendet, die ebenso vorurteilsbelastet sein könnten, wie wir das aus Geschichten über wild gewordene KIs in den vergangenen Jahren erfuhren. Jeder von uns dürfte deshalb ein großes Interesse daran haben, dass KI von sauberen und fairen Daten trainiert wird, wenn unsere eigene Stimme in eine andere Sprache übersetzt wird und einzelne Begriffe dabei womöglich andere, negative Bedeutungen bekommen könnten.