Teil I: Künftige Sprachressourcen



Zusammenfassung

Experten wurden in der Studie dazu aufgefordert, die Höhe des Bedarfs für bestimmte Arten von Sprachressourcen einzuschätzen. Die Studie ergibt, dass ein besonders hoher Bedarf an gemischt-sprachlichen Ressourcen, Zweitsprachressourcen, Ressourcen mit Fehlern in der Spontansprache und Generationenkorpora besteht. Der Bedarf an Korpora mit aufgezeichneten Fehlern in der Spontansprache wird dabei mit 30 übereinstimmenden Meinungen deutlich als besonders hoch eingestuft. Korpora mit Sprechern aus unterschiedlichen Generationen werden nach Meinung von 23 Experten einen steigenden Absatz finden und jeweils 18 Stimmen sehen in gemischt-sprachlichen Ressourcen und Zweitsprachressourcen einen großen Bedarf. Zu den beiden Letzteren gibt es den Einwand, dass bei regelmäßigen Updates der Lexikoneinträge keine speziellen Datenbanken mehr angelegt werden müssten, da Veränderungen in der Sprachentwicklung dadurch automatisch erfasst würden.

Weniger eindeutige Ergebnisse sind für die Erfassung von Emotion und Biometrie zu verzeichnen. 21 Experten halten die Beschäftigung mit der emotionalen Komponente von Sprache für wichtig. Jedoch sehen einige ein Problem in der Erfassung und objektiven Weiterverarbeitung bei der Annotation, andere halten dieses Thema schlicht für überbewertet. Die Biometrie wird nur bedingt als zukunftsträchtig angesehen. 17 Befragte halten den Bedarf zwar für hoch, jedoch einige nur unter der Bedingung, dass bei sicherheitskritischen Anwendungen Robustheit und Zugangssicherheit gewährleistet sind. Dies ist aber momentan nur in Kombination mit anderen Modalitäten und Verfahren möglich.

Dialekte sollen im Anwendungsbereich nur auf dialektal-gefärbte Hochsprache beschränkt aufgezeichnet werden. Innerhalb einer Sprachressource sollte der Dialekt nur repräsentativ abgedeckt werden und nicht im Fokus stehen. Werden separate Dialektdatenbanken angelegt, können sie dynamisch in eine Anwendung geschaltet werden können.

Beim Erheben von Kindersprachdaten sollen Kinder verschiedener Alterstufen aufgezeichnet werden. Die Experten nehmen dabei eine Unterteilung in bis zu 7 Stufen vor. Für den Zweck der Spracherwerbsforschung wird empfohlen, mit ersten Untersuchungen spätestens ab dem 9. Monat nach der Geburt zu beginnen. Für Computer-Anwendungen gilt das 5. Lebensjahr als Beginn ausreichend. Als Anwendungsszenarien wurden auch Freizeit, Medizin, Forschung und das Lehren und Lernen (21) von Sprache genannt. Die geforderten Sprachinhalte sind sehr verschieden, sie werden im Detail im Text aufgeführt.

 

1. Frage: In welcher Form sollten bei der Schaffung zukünftiger Ressourcen Dialekte berücksichtigt werden?

Bei dieser Fragestellung wird bereits davon ausgegangen, dass Dialekte bei der Erstellung einer Sprachressourcen-Datenbank berücksichtigt werden sollen. In welcher Form und in welchem Umfang, sollten die Experten beantworten.

Hier können drei Nutzungsmöglichkeiten unterschieden werden: die Nutzung von Dialekten für anwendungsbezogene Sprachdatenbanken (5), der reine Erhalt und die Dokumentation von evtl. aussterbenden Dialekten (6) und die Grundlagenforschung (3). Mit 'Dialekt' können sowohl dialektale Akzente in der Hochsprache als auch regionale Varianten gemeint sein. Für den Anwendungsbereich wird eine Beschränkung auf dialektal gefärbte Hochsprache empfohlen (3) und innerhalb einer Sprachressource sollte der Dialekt nur repräsentativ erfasst werden (4), es sei denn, es werden separate Dialektdatenbanken angelegt, die dann dynamisch in eine Anwendung geschaltet werden können (1).

 
Ausmaß der dialektalen Ausprägung für technische Anwendungen

Die Erfassung von Dialekten für technische Sprachanwendungen erfordert andere Ressourcen als eine reine Dokumentation zu Spracherhaltszwecken:

Für technische Anwendungen ist eine Beschränkung auf 'dialektal gefärbte' Hochsprache ausreichend (2). Es sollten dabei jedoch alle größeren Regionalakzente abgedeckt werden (1). Die 'Bedienung' echter starker Dialekte ist nur von geringem wirtschaftlichen Interesse (1) und für Anwendungsdatenbanken daher uninteressant. Für die Aufnahmen sollten Sprecher mehrerer Dialektgebiete mit regionaler Färbung zur Verfügung stehen, die nicht nur z.B. 'Österreichisch' und 'Schweizer Deutsch' sprechen, da die genannten Kategorien dialektologisch nicht besonders valide sind (1), denn Nationalstaaten und Bundesländereinteilungen haben mit sprachlichen und phonetischen Varianten nicht allzu oft etwas gemein.

Um Datenbanken zu erstellen, die sowohl für Anwendungen als auch für die Wissenschaft dienlich sind, macht ein Experte den Vorschlag, unterschiedliche Sprechaufgaben bei der Erhebung zu kombinieren (1). Denn die Technologie geht von trennbaren Klassen von Sprechergruppen aus, in der sprachlichen Realität gibt es jedoch eine gleitende Dialektausprägung, d.h. Variationen innerhalb angenommener Dialektgebiete und im Sprachverhalten einzelner Sprecher eines Gebietes. Hinzu kommt, dass einzelne Sprecher die Ausprägung ihres Dialektes je nach Anwendungsszenario variieren werden. Die allgemeine Bahnauskunft wird dann beispielsweise von einem Sprecher möglichst auf hochdeutsch angesprochen werden, die  sprachgesteuerte Webseite der lokalen Bäckerei dagegen eher im Dialekt [Kommentar der Redaktion]. Dialekte haben viele Probleme mit seltenen Sprachen gemeinsam, da sie keine feste Sprachnorm haben und regionale Unterschiede innerhalb des gleichen Dialekts aufzufinden sind (1).

 
Anteil von Dialekten innerhalb einer Sprachressource für technische Anwendungen

Dialekte sollen repräsentativ vorhanden sein, aber nicht im Fokus einer Sprachressource stehen (4), d.h. es besteht ein gewisses Interesse an der Verfügbarkeit von Dialekten, und ein Einfließen von lokalen Dialekten wird als wünschenswert betrachtet (1). Die Dialekterfassung trägt zu einer wesentlich höheren Akzeptanz aufgrund der besseren Sprachabbildung von sprachlichen Nuancen bei, was im Hinblick auf wirtschaftlich erfolgreiche Anwendungsfelder sehr wichtig ist (1). Für die Sprachsynthese sind Dialekte nur bedingt interessant (1).

 
Anderer Ansatz: Separat angelegte Dialektdatenbanken für technische Anwendungen

Dialektdatenbanken sollten so angelegt werden, dass sie dynamisch in die Anwendung geschaltet werden können, am besten durch eine automatische Erkennung des Dialekts durch die  Automatic Speech Recognition (ASR) (1). Wenn sich z.B. Produkte mit Sprach-Input/Output weiter verbreiten, kann der Erkenner Dialekte identifizieren (1).

 
Dialekte in Sprachressourcen zum Zweck der Dokumentation und Grundlagenforschung

Ressourcen zum Zweck des Erhalts von Dialekten und der Grundlagenforschung sollen in eigenen Dialektdatenbanken verwaltet werden, analog zu neuen Sprachen (2). Auch sollten idealerweise regionale Dialektgemeinschaften mit unterschiedlichen Graden an dialektaler Färbung erfasst werden (1), jeweils nach Häufigkeit des Auftretens (1). Für jeden einzelnen Dialekt sollten Aufnahmen vorhanden sein (1).

 
Beispiele für die Grundlagenforschung

Dialekte sollen erfasst werden, um z.B. evolutionäre Aspekte des Sprachwandels/-einflusses (1) und Diglossie-Situationen untersuchen zu können (1). Für die Beschreibung einer Sprache sind Dialekte wichtig (besonders für die historische Beschreibung). Die Annotation und Auswertung von Daten wird neue Erkenntnisse für die theoretische Linguistik bringen (1).

 
Hinweise zum Anlegen für Datenbanken

Der Dialekt des Sprechers sollte immer genau gekennzeichnet werden (1). Diese Einschätzung kann nur zum Teil durch den Sprecher selbst erfolgen, in der Regel muss dies ein Experte beurteilen [Kommentar der Redaktion]. Umfangreiche Korpora mit mehreren Sprechern sollten bezüglich Alters und Geschlecht sowie Dialekts die reale Situation in einem Sprachraum abbilden (1).

 

2. Frage: Wie ist der zukünftige Bedarf an gemischt-sprachlichen Ressourcen (z.B. Deutsch mit englischen Fremdwörtern)?

 Die Experten stimmen größtenteils darin überein, dass der Bedarf an gemischt-sprachlichen Ressourcen sehr hoch ist (18). Lediglich drei Experten halten derartige Datenbanken für unnötig, wenn z.B. Lexika regelmäßig auf den neuesten Stand gebracht würden.

 Gründe für das Interesse an gemischt-sprachlichen Datenbanken

Gerade der Bedarf an 'authentischen' Daten wird im Allgemeinen zunehmen (3). Dies bezieht sich nicht nur auf das Teilgebiet gemischt-sprachlicher Ressourcen. Als Sprache wird das definiert, was im Alltag, aber auch in Fachsprachen tatsächlich gesprochen wird; dazu gehören im Deutschen auch 'Fremdwörter' wie z.B. Beamer, Trottoir usw. (1). Deshalb müssen in realitätsnahen Anwendungen (4) auch solche Wörter berücksichtigt werden. Besonders für die Kombination Deutsch-Englisch ('Denglisch') besteht schon heute großer Bedarf (in Amerika wird die Kombination von US-Englisch und US-Spanisch in zunehmendem Maße wichtiger) (2). 'Englisch' wird mittlerweile nicht nur im thematischen Kontext von Computern und Technologie, sondern auch verstärkt in Fernsehen und Zeitung verwendet (1). In allen textbasierten Anwendungen oder der mündlichen und E-Mail-Kommunikation (1) entsprechen Sprachkombinationen der real vorzufindenden Situation (1). Überall dort, wo große Minderheitsgruppen in einem Land wohnen, die die Landessprache nicht akzentfrei beherrschen, z.B. türkische Mitbürger in Deutschland oder spanische Mitbürger in den USA, müssen Sprachressourcen 'fehlertolerant' realisiert werden, dabei geht es um mehr als nur z.B. englische Namen, die in der jeweiligen anderen Sprache erkannt werden müssen (1). Bei der gegenwärtigen Domänenabhängigkeit effizienter Technologien sind entsprechende Trainingsdatenbanken erforderlich (1). Ein weiterer Bereich, in dem derartige Ressourcen wichtig sind, ist die Sprachsynthese. Eine gute Synthese ist ohne englische und französische Laute nicht zu denken (z.B. Kinoansage) (1).

In der Forschung können gemischt-sprachliche Datenbanken einen Beitrag zur Modellierung des Spracherwerbs leisten (1) und der Einfluss einer Sprache auf die andere analysiert werden (2).

 Gründe für die nur bedingte Wichtigkeit gemischt-sprachlicher Datenbanken

Ein Experte der Befragung hält diese Datenbanken nur für interessant, wenn in standardisierten Metadateien auch die genaue Sprachstellung der Sprecher erhoben wird (1). Wenn Lexika gemäß der realen Sprachentwicklung regelmäßig 'upgedatet' würden, findet ein weiterer Teilnehmer extra angelegte Datenbanken für gemischte Sprache nicht mehr nötig (1), da  sich die Veränderung der Sprache dann immer im Vokabular, im Satzbau, in den Verschleifungen usw. niederschlage. Ein anderer Experte wendet ein, dass zwar die Fremdwortbenutzung zunimmt, aber die Aussprachevariabilität dabei nicht größer wird (1).

 Probleme und Anmerkungen

Da sich der Wortschatz 'Denglisch' ständig ändert, müssten auch Ressourcen ständig verändert und angepasst werden (2). Außerdem muss klar nach Sprachdomäne spezifiziert werden, worum es sich handelt (z.B. 'Denglisch' oder 'Franglais') (1).

 

3. Frage: Wie ist der Bedarf an Zweitsprach-Ressourcen (z.B. für türkische Mitbürger, die Deutsch als Zweitsprache erworben haben)?

Die meisten Befragten schätzen den künftigen Bedarf an Zweitsprachressourcen als wachsend und groß ein (18), andere als eher gering (8). Besonders für die Forschung werden solche Ressourcen als wertvoll erachtet (6).

Auffallend ist, dass einige Experten das Thema 'Zweitsprach-Ressourcen' dem Bereich 'Dialekte' zuordnen (5). Kategorial ist ihrer Meinung nach eine Sprachaufnahme eines Ausländers, der Deutsch mit Akzent spricht, nicht anders zu bewerten als die Hochsprache mit dialektaler Färbung, weswegen Lexika-Einträge oder das Erfassen innerhalb einer Dialekt-Ressource genügen.

 Gründe für einen wachsenden Bedarf

Da die potenzielle Nutzergruppe für sprachtechnologisch gestützte Anwendungen z.B. in Deutschland wegen der vielen Deutschtürken sehr groß ist, müssen die Anwendungen auch auf ein solches 'Sprachmodell' hin trainiert werden (3), d.h. Sprachressourcen müssen fehlertolerant realisiert werden (1), vor allem im Hinblick auf die Chancengleichheit und die gleichberechtigte Teilhabe am öffentlichen Leben, welches zunehmend durch Sprachtechnologie geprägt sein wird (1).

 Nützlich für konkrete Anwendungen und Forschungszwecke

Im Bereich der Telefonie (1),  des E-Learnings und für Korrekturprogramme können die Datenbanken gut verwendet werden (2). Sie unterstützen auch die Forschung im Bereich Zweitsprachenerwerb und machen Unterrichtsverbesserungen möglich (z.B. Übersetzungskorpora) (1). Schwierigkeiten im Zweitspracherwerb können durch kontrastive Studien und allgemeine Sprachlernstudien aufgezeigt (4) und durch verbesserte Lehrmethoden reduziert werden (1).

 Zweitsprachressourcen sind ,Dialekte' und müssen nicht gesondert erfasst werden

Erkennungssysteme für Ausländer sind möglicherweise überflüssig, wenn sie für Ausländergruppen gedacht ist, die das Deutsche ausreichend beherrschen und nur mit Akzent sprechen (2). Denn hinsichtlich der Abweichungen von der Standardlautung sind beispielsweise türkische Deutsch-als-Zweitsprache-Sprechende kategorial nicht anders zu sehen als z.B. eine sächsische Bahnangestellte, der Kohlenpottkumpel oder der oberbayrische Bauer (1); mit den Merkmalen eines typischen Dialekts eben (2). Außerdem kann man langfristig davon ausgehen, dass sich spätestens ab der dritten Immigranten-Generation der Akzent verwaschen hat (1) und somit das Anlegen einer solchen Ressource zu viel Aufwand bedeutet für einen Zweck, der nicht langfristig bestehen wird. Derartige Variationen gehören nach Ansicht einer anderen befragten Person zum Wesen der Sprache an sich, weshalb regelmäßige Einträge in Lexika genügen sollten (1). Falls sich Institute doch dazu entschließen sollten, eine Ressource mit Zweitsprachlern anzulegen, die nicht nur aus der Türkei, sondern auch aus anderen Sprachgemeinschaften nach Deutschland kommen, wird es schwierig werden, genügend Sprecher für diese Sprachressource zu finden (1). Ein Experte hält das Anbieten von Informationen in den meist relevanten Zweitsprachen für wesentlich kostengünstiger. Wenn Erkennungssysteme für Dialog-/Informationssysteme auch Modelle für unterschiedliche Nicht-Muttersprachler kennen, können solche Systeme dann sinnvoll verwenden (1).

 

4. Frage: Ist ein Korpus mit Fehlern in der Spontansprache interessant?

Fast alle befragten Studien-Teilnehmer (30) halten das Erfassen von Fehlern in der Spontansprache (z.B. unvollständiger Satzbau, Korrekturen) für besonders wichtig, nicht nur für medizinische Zwecke (2). Lediglich ein Teilnehmer geht von einer geringen Wichtigkeitsstufe aus, ein anderer hält ein solches Korpus zumindest in einem kurz- und mittelfristigen Zeitraum unter drei Jahren kommerziell für uninteressant. Wird die Einschätzung von den Experten weiter begründet, so meist mit den Argumenten, dass Fehler in der Spontansprache die sprachliche Realität am besten abbilden (5) und die Erfassung eines solchen Korpus besonders auch für wissenschaftlich-weiterführende Forschungen (7) interessant sei. Einige Wissenschaftler verweisen bei der Frage sofort auf konkrete Anwendungen (7) oder anwendungsbezogene Techniken (5), die eine Erfassung fehlerhafter Spontansprache notwendig machen.

 Fehler in Spontansprache als Forschungsgrundlage

Im Bereich wissenschaftlicher Forschung kann durch die Aufzeichnung spontaner Sprache 'Sprache' umfassender beschrieben werden (1), Sprachproduktionsfehler (1) und Fehlerquellen bei der menschlichen Sprachproduktion können genauer untersucht und Grammatikalitätsgrade (1) beurteilt werden. Gerade Techniken wie das Self-Repair und Self-Monitoring (1) können dadurch genauer untersucht werden. Allgemein gesagt sind solche Daten sowohl aus kognitionswissenschaftlicher (1) als auch auf linguistischer Ebene (2) wertvoll.

 Konkrete Anwendungen bzw. Anwendungstechniken einer solchen Datenbank

Bei jeder Anwendung, wo es zu ungrammatischen Sätzen kommen kann, ist auch ein Korpus mit solchen Phänomenen interessant (1). Im Allgemeinen wird die Spracherkennerleistung besser, wenn die Korpora Fehler beinhalten, die Menschen bei der Anwendung passieren werden (1). Solche Anwendungen können eine einfache Datenerfassung durch sprachliche Eingabe oder eine Datenbankabfrage am Computer sein (1) oder ein Grammar-Checking-System (1) oder fehlertolerante Suchanfragen (1), aber auch Dolmetschsysteme (1) oder  automatisierte Systeme, die z.B. für das Erstellen von Rechnungen zuständig sind (1). Solche Systeme könnten auch auf der Basis von Dokumenten arbeiten, die z.B. von den behandelnden Ärzten nicht in bester Form und Orthographie verfasst wurden (1). Für die Entwicklung realistischer Sprachdialog-Anwendungen im Allgemeinen sind derartige Daten unerlässlich (1).

Durch die Erfassung fehlerhafter Sprache kann die Beziehung von Prosodie und vorkommenden Reduktionen (1) und die Fehlertoleranz in sprachtechnologischen Anwendungen (2) modelliert werden. Auf Basis statistischer Analyse können Entscheidungskriterien für Sprachanwendungen abgeleitet werden (z.B. zur Steigerung der Robustheit von Systemen und zur Untersuchung von kognitiven Modellen der Sprachperformanz) (1).

 

5. Frage: Ist eine Ausweitung auf einzelne Generationenkorpora wichtig?

Dies würde bedeuten, dass spezielle Korpora für die unterschiedlichen Lebensalter (z.B. Heranwachsende, Senioren) erstellt würden.

Die meisten Befragten halten Korpora, die jeweils eine unterschiedliche Altersgruppe beinhalten, für wichtig (23), wobei jedoch der Bedarf für das jeweilige 'Lebensalter' (2) geklärt werden sollte. Fünf Befragte gehen dabei von einem besonders hohen Wert für die Grundlagenforschung aus (5). Andere Befragte halten extra angelegte Korpora für nicht notwendig (5), da eine entsprechende Auszeichnung einzelner Daten eines Korpus ausreichen würde (1) und ältere Sprecher bei der Erstellung von Datenbanken generell zu berücksichtigen wären (1).

 Gründe für Generationenkorpora

Sprachtechnologie soll verschiedene Altersgruppen möglichst natürlich bedienen können (2). Sprachen entwickeln sich in Generationen-Abständen weiter (1), d.h. das Sprachverhalten und das Vokabular verändert sich über die Generationen hinweg deutlich (1). Daher werden normalerweise besonders Senioren und Kinder bei einer auf Erwachsene im mittleren Alter angelegten Spracherkennung schlechter erkannt (1). Durch die Erfassung von Senioren- und Kindersprache würden zum Einen sprecherspezifische Eigenschaften besser modellierbar (1) und zum Anderen könnten Spracherkenner auf eine bessere Erkennerleistung hin trainiert werden (2). Die Anpassung bzw. Diversifikation wird bei dialogorientierten Mensch-Maschine-Systemen zu besseren Resultaten führen (1). Ein weiterer Aspekt ist die Überalterung der Menschen in Deutschland. Die Zahl der Senioren wird in Zukunft steigen, weshalb speziell Senioren eine immer wichtigere Zielgruppe für Sprachapplikationen darstellen (1). Für die Grundlagenforschung ist die Erforschung des Sprechstils (1), die Analyse von Jugend-, Senioren- und Kindersprache (1) und die Erforschung des Einflusses von Alterserscheinungen (z.B. Schwerhörigkeit) auf die Sprache interessant (1).

 Gründe, warum Generationenkorpora vernachlässigbar sind

Wie oben bereits erwähnt sind Experten der Meinung, eine entsprechende Auszeichnung einzelner Daten eines Korpus würde ausreichen (1) und ältere Sprecher seien bei der Erstellung von Datenbanken generell zu berücksichtigen (1). Bei der Erfassung der Veränderung in Syntax und Lexis seien Korpora externalisierter Sprache, also 'Querschnitte' aktueller Sprache zu bestimmten Zeitpunkten, wie etwa bei den Korpora des Institutes für Deutsche Sprache, sinnvoller (1).
Altersspezifische (deutsche) Sprachressourcen sind keine viel versprechende Nische (1).

 Organisatorische Tipps für die Erstellung von Generationenkorpora

Die Erweiterung zu Generationenkorpora sollte erst angegangen werden, wenn bereits genug Normkorpora zur Verfügung stehen (1). Korpora sollten per Metadaten so zugreifbar sein, dass man direkt z.B. auf die Daten der über 60-jährigen zugreifen kann (1). Allerdings sind bei der Erstellung von Ressourcen neben dem Lebensalter auch Faktoren wie Dialekt, Soziolekt und Bildungsniveau zu erfassen.

 

6. Frage: In welchem Alter sollten Kinder sein, die für eine Sprach­datenbank aufgenommen werden?

Für eine Sprachdatenbank mit Kindern sollen nach Meinung von Experten mehrere Altersstufen aufgenommen werden (10). Wenn es zu verwirklichen ist, sollten Kinder eher nach Entwicklungsstufen als nach genauem Alter eingeteilt werden (2).

Je nach Verwendung der Sprachdatenbank treffen Experten unterschiedliche Einstufungen. Für die Spracherwerbsforschung (5) ist das Sprechverhalten ab der Geburt eines Kindes interessant, für kommerzielle Anwendungen frühestens ab dem Kindergartenalter, sinnvoller aber ab dem Alter für leichte technische Anwendungen, etwa mit 5 Jahren (5). Für Alterseinstufungen unabhängig vom Ziel der Sprachdatenbank werden folgende Einteilungen angeraten:

Experten empfehlen ein systematisches 'Abtasten' von Altersstufen bis zum Erwachsenenalter unter Berücksichtigung des Stimmbruchs (2). Die ersten Aufzeichnungen, zumindest für Spracherwerbsstudien (8), sollten ab der Geburt stattfinden. Große Schritte im Sprachverhalten passieren im Kindergartenalter ab 3 Jahren (5). Eine weitere Altersstufe, die von 5 Experten erwähnt wurde, ist das Vorschulalter (Alter: 4-6 Jahre). Dann kommt das Leselernalter ab 6 Jahren (7) und das so genannte 'Schulalter', das etwa vom 10. bis zum 14. Lebensjahr gerechnet werden kann (5). Die (Vor-)Pubertät ab 12 bis 14 oder 16 Jahren (6) unter Berücksichtigung des Stimmbruchs steht als weitere Entwicklungsstufe. Als letzte Gruppe werden Schulabgänger im Alter zwischen 16 bis 25 Jahren (4) erwähnt und die Altersklasse nach dem Schulabgang (21 bis 30 Jahre) (1).

 Altersbeginn für die Spracherwerbsforschung

Lernprozesse beim Spracherwerb sind noch weiter zu analysieren (1). Für phonologische Untersuchungen der ersten Spracherwerbsphase ist vor allem die Herausbildung des Phoneminventars ein wichtiges Gebiet. Solche Untersuchungen beginnen sinnvollerweise schon ab der Geburt, spätestens ab 8 bis 9 Monaten (2). Später, im Alter von ein bis drei Jahren, sind Längsschnittstudien zu machen (3). Die Erforschung des Stimmbruchs könnte durch solche Datenbanken auch vorangebracht werden.

 Altersbeginn für technische Anwendungen und Beispiele für solche Anwendungen

Die Einstufungen von Experten sind hier relativ konsistent. Eine Datenbank für technische Anwendungen ist erst sinnvoll ab einem Alter, in dem Kinder fähig sind, leichte technische Anwendungen zu bedienen (1). Das ist etwa ab 5 Jahren der Fall (5). Radiomikrophone beispielsweise werden von Kindern ab einem Alter von 5 Jahren für Spontangespräche genutzt. Um sprachlich 'unverfälschtere' Aufnahmen zu erhalten, sollten erste Aufnahmen unbedingt noch vor einem systematischen Kontakt mit staatlichen, möglicherweise hochsprachlich geprägten Erziehungsinstitutionen stattfinden (1). Als nächster großer Altersabschnitt wird von den meisten Experten der Eintritt in die Schule erwähnt. Im Schulalter adaptieren Kinder noch mit spielerischer Leichtigkeit solche Technologien (1). Erfahrungen hieraus wären für alle anderen Anwendungsbereiche wertvoll (2). Mögliche Anwendungen wären beispielsweise Tutoring-Systeme für Kinder im Grundschulalter zum Lesenlernen im Mensch-Maschine-Sprachdialog (1). Weiterhin helfen Kindersprachdatenbanken bei synchronen Studien zur Spracherkennung und Sprachsynthese (1). Denkbar wären auch Spielzeuganwendungen, Zutrittskontrolle am Computer (1) und die Unterstützung im Deutschunterricht für Nicht-Muttersprachler (1).

 

7. Frage: Welche Sprachinhalte sind bei der Erstellung einer Kinder­sprachdatenbank zu berücksichtigen?

Hier unterscheiden Befragte unterschiedliche Verwendungszwecke einer solchen Datenbank. Erwähnt wurden neben konkreten kommerziellen Anwendungen (3) auch medizinische, Lern- und Kontrollzwecke (z.B. im Spracherwerb) (15).

 Als konkrete Inhalte für die Erstellung einer Datenbank wurden folgende Punkte genannt:

Vorschläge für eine Spracheingabe für die Datenbank sind das Aufnehmen kleinerer Diskurse (satzübergreifend) (1), Kommandos und Diktieren (erst ab dem Leselernalter) (1) oder kindliches Erzählen und Spielen (1). Zur Anregung des kindlichen Erzählens kann man Tierbilder verwenden oder man fordert zum Nacherzählen bekannter Geschichten auf (1). Man kann auch die Spontansprache des Kindes beim Spielen aufzeichnen (1). Je nach Alter könnte man auch Kinder altersgerechte Erzähl- und Lesetexte (2), Sachtexte in Lexika (1) oder typische medizinische Wortschätze (Zürcher Lesetest, Nordwind und Sonne etc.) vortragen lassen. Die medizinischen Wortschätze könnten in der Forschung auch speziell als Referenz für Kinder mit Lippen-Kiefer-Gaumenspalte (1) verwendet werden. Über Spiel- und Freizeitaktivitäten (1), Schule und Erziehung (1) berichten Kinder gerne. Auch Aufgaben, die das Lösen von Alltagsproblemen (1) beinhalten, können Kinder zum Sprechen bringen. Zusammenfassend kann man sagen, dass Inhalte aus der direkten Umwelt und Erfahrung des Kindes spontane Alltagssprache und somit natürliche Sprachdaten hervorbringen (9) und dass Kinder mit in Form und Inhalt kindgerechten Materialien (2) zum Sprechen animiert werden sollen.

 Genannte Forschungs- bzw. Anwendungsziele im Spracherwerb

Solche Datenbanken sollten bei der Kontrolle des Spracherwerbs im Allgemeinen (6) und der Kontrolle der Lautentwicklung im Speziellen eingesetzt werden, um Sprachentwicklungsverzögerungen festzustellen (1) oder bei Sprach- und/oder Lernstörungen (3), wie dem Sigmatismus (1), und bei Lese- und Rechtschreibschwäche (1) zum Einsatz kommen. Als Grundlage von Lernhilfen für Ausländerkindern (2) oder bei Kindern im Zweitspracherwerb (1) könnten sie auch genutzt werden. Bei älteren Kindern in der Pubertätsphase könnte untersucht werden, wie Unterhaltungsmedien Sprache beeinflussen (z.B. Hip-Hop) (1) oder wie die Sprachverwendung mit Eltern im Vergleich mit gleichaltrigen Kindern (je nach Geschlecht unterschiedlich) ist (1).

 Grobe Inhalte bei der Kontrolle des Spracherwerbs

Zur Kontrolle des Spracherwerbs muss die Sprache bezüglich des Wortschatzes bzw. inneren Lexikons (1), der syntaktischen Strukturen (1) und auf Fehlerproduktionen (etwa Übergenerierung von Verb- und Pluralformen) (1) und morphologische (Über-) Generierungen (1) überprüft werden. Ab 3 Jahre sollte man die Eckvokale abfragen (1). Über alle Stufen hinweg sollten die kognitiven Fähigkeiten je Alter, z.B. der Ausdruck von Transitivität, Kausalität bei sehr jungen Kindern (1), überschaut werden.

 Mögliche kommerzielle Anwendungen

Im Anwendungsbereich sind denkbar die Steuerung von Spielsachen, aber auch anderer elektronischer oder optischer Geräte wie Mobiltelefon, PDA und Digitalkamera (1). Hierzu könnte man Kommandos (ASR) aufnehmen (1). Weiter wäre eine kindliche Sprachausgabe denkbar oder Lehrsysteme für Kinder, um z.B. Schulleistungen zu verbessern (1).

 

8. Frage: Welche Anwendungsszenarien für eine Kindersprach­datenbank fallen Ihnen ein?

Datenbanken von Kindern werden laut Befragtenmeinung für die Bereiche Freizeit (10), Medizin (11), Forschung (9), das Lehren- und Lernen von Sprache (21) gebraucht.

 Sprachanwendungen in der Freizeit

Sprachtechnologie wird zukünftig in Spielen und bei Spielzeug (8) beziehungsweise anderen Unterhaltungssystemen (1) in Form von Spracherkennern (3), z.B. auch für 'sprechende' Lexika (1), integrierter Sprachausgabe (1) oder für Spiele mit Sprachinteraktion (1) verwendet werden.

 Medizinische Anwendungen

Eine solche Datenbank sollte auch medizinische Problemfälle enthalten (1) und für medizinische Anwendungen geeignet sein (1) (Referenzsprache). Der Spracherwerb sollte mit Hilfe der Datenbank beobachtbar sein und sie soll Entwicklungsstörungen erkennen helfen (1). Beispielsweise sollte die Ausprägung der Prädikat- und Argumentstruktur für Verben,  Konzeptualisierungsfehler, d.h. Mismatches zwischen Ober-/Unterbegriff, Teil-Ganzes etc., und die sprachliche Kreativität (1) einschätzbar werden. Zur Verbesserung der Sprachentwicklung könnte eine solche Datenbank Reha-Anwendungen (1) bedienen und ein logopädisches Training im Bereich der Sprachpathologie (5) unterstützen. Weiter könnten Sprachanwendungen präliteralen Kindern den Zugang zu Information (1) erleichtern. Ein weiterer Aspekt wäre die Entwicklung von Sprachsteuersystemen für (körper-)behinderte Kinder (1).

 Datenbanken für die Forschung

Datenbanken könnten helfen, Forschung im Spracherwerb, in dessen Störungen und in der Sprachdynamik (7) durchzuführen, und zu sozialwissenschaftlichen und psychologischen Fragestellungen (1) Aufschluss zu geben. Konkretere Fragestellungen wären, wie und ab wann Mädchen und Jungen an der Stimme unterschieden werden können, wie spontansprachliche Erscheinungen von Kindern in unterschiedlichen Altersstufen ausfallen, die Art der Gestenverwendung und die nicht-verbalen Vokalisierungen in den verschiedenen Altersstufen (wie z.B. Lachen, Backchannel-Äußerungen und affektive Interjektionen) (1).

 Datenbanken zu Lehr- und Lernzwecken

Datenbanken könnten für (Lese-)Lernprogramme/Systeme/Software für Vorschul-/Grund­schulkinder inkl. Kinderlexika (9) und Lernumgebungen für den Fremdsprachenunterricht, z.B. Sprachlernsoftware (4), nützlich sein. Kinder könnten Diktierfunktionen für Hausaufgaben (1) und SMS (1) verwenden. Im Lehrbereich könnten Tutoring-Systeme (2), Anwendungen im Bereich des E-Learning (2) und andere Lehrsysteme (z.B. für Mathematik und Deutsch) (2) interessant sein. Die sprachliche Vermittlung von Lehrinhalten u.a. (1) könnte teilweise die Lehrkraft ersetzen.

 

9. Frage: Welchen Stellenwert haben Informationen über die emotionale Komponente der Sprache?

Beim Stellenwert von Emotionen existieren unter den befragten Teilnehmern der Studie unterschiedliche Einschätzungen. 21 Befragte halten die Erfassung von Emotionen für sehr wichtig, darunter acht für zunehmend wichtig. Andere Befragte denken, die emotionale Komponente sei weniger wichtig (9) und nur ein Thema, das eben gerade 'in' sei und daher überbewertet werde. Außerdem ist das Evozieren bzw. Erfassen schwierig und die Annotation immer auch subjektiv (4).

 Gründe für das Erfassen von Emotionen

Applikationen sollen berücksichtigen, wie die Benutzerzufriedenheit ist. Dafür müssen Modelle entwickelt werden (1). Durch das Erkennen von Emotionen kann eine Aussage über die Intention eines Sprechers getroffen werden, und es können Missverständnisse zwischen Benutzer und System vermieden werden (3). Emotionen üben auch einen Effekt auf die anderen sprachlichen Komponenten wie Wortwahl, Satzbau, Informationsstruktur etc. aus (2).

 Gründe für die Vernachlässigbarkeit von Emotionen

Im Vergleich zu den bereits erwähnten Themen wie Dialekte usw. sind Emotionen zu vernachlässigen (9). Einige halten sie für die meisten Anwendungen von heute, z.B. Dialog-/Informationssysteme oder Kommando-Geräte-Steuerung, von nur geringer Relevanz (3) oder können sich nicht vorstellen, welche Anwendungen daraus erwachsen können (2).

 Mögliche technische Anwendungen

Denkbare Anwendungen wären eine emotional gefärbte Synthese (2), die Nutzung für das Design von Benutzer- und intelligenten Mensch-Maschine-Schnittstellen (4), Embedded Systeme (1) oder adaptive benutzerfreundliche Dialogsysteme (4) und die Nutzung für bestimmte Use-Cases (1), wie das semantische Entschlüsseln von Sprache (2).

 Mögliche Forschungsgebiete

Forschung wäre auf dem Gebiet bestimmter syntaktischer Phänomene denkbar, wenn z.B. ein auswertender Mensch interpretativ syntaktische Erweiterungen an ihm interessant und lohnend erscheinenden Stellen anfügt (1). Auch die Forschung im Bereich Psycholinguistik (1) könnte dadurch ausgeweitet werden. Lohnend wäre auch herauszufinden, ob emotionale Komponenten fehlerfrei oder mit hoher Wahrscheinlichkeit erkannt werden können. Eine verbesserte Mensch-Maschine-Interaktion könnte diese Parameter dann verarbeiten und nutzen (1).

 Probleme beim Erfassen von Emotionen

Emotionen sind bei einer kontrollierten Situation wie bei Aufnahmen schwer 'herauszulocken', auch wenn der Sprecher sich unbeobachtet fühlt. Weiß der Sprecher Bescheid, werden die Emotionen sehr kontrolliert wirken (1). Es wird daher nicht leicht sein, eine repräsentative Menge an Daten zu sammeln (1). Die Annotation von emotionalen Zuständen ist sehr schwierig (1). Hier ist noch Grundlagenforschung nötig (2). Wenn eine Einschätzung der Emotionalität bei der Annotation von Daten vorgenommen wird, trägt diese auch immer subjektive Züge (1). Weiter ist fraglich, ob derartige Korpora ethisch vertretbar sind und ob nicht Probleme im Bereich des Datenschutzes auftreten werden.

 

10. Frage: Ist die Biometrie der Stimme zukunftsträchtig und sicher?

Über die Hälfte der Befragten sehen in der Biometrie der Stimme einen zukunftsträchtigen Bedarf (17). Viele Experten nennen dazu aber auch Bedingungen, die erfüllt sein müssen, um Biometrie-Daten in Zukunft erfolgreich anwenden zu können. Zu den Hauptkriterien zählen hier die Robustheit gegenüber Geräuschen und leichter Stimmveränderung einerseits und die Zugangssicherheit, die nur die Kombination mit anderen Modalitäten und Verfahren gewährleisten wird (6), andererseits. Einige Befragte halten die Biometrie nicht für zukunftsträchtig (5). Das liegt auch daran, dass Anwendungen keine 100%ige Sicherheit bieten können. In Sicherheitsfragen finden neun Experten, dass die Biometrie nur bedingt sicher ist, drei Experten sind der Meinung, sie sei überhaupt nicht sicher.

 Gründe für die Erhebung Biometrie-Daten

Ein Vorteil von Biometrie-Daten ist, dass sie einfach zu erheben sind (1). Bisherige Testanwendungen haben gezeigt, dass auch die Akzeptanz von biometrischen Verfahren, die auf der Sprache basieren, sehr hoch ist (1). Besonders im unternehmensinternen Einsatz sind Biometrie-Anwendungen für die Absicherung von Information relevant und optimal (wegen des geringen Mitteleinsatzes bei den Endgeräten) (1). Zudem liegt im Bereich Biometrie ein großes staatliches Interesse vor (1). Schreibt man die bisherige Entwicklung also weiter, wird Biometrie zukünftig ein Thema bleiben (1). Falls Biometrie-Anwendungen in der nächsten Zeit noch keine akzeptable Sicherheit bieten, sind trotzdem zahlreiche unkritische Anwendungen vorstellbar (1). Auch für die Grundlagenforschung ist die Biometrie interessant (1).

 Bedingungen für Zukunftschancen der Biometrie

Die Biometrie kann nur interessant sein, wenn sie auch sicher ist (1). Es wird auch nur dann zukünftig eine Nachfrage bestehen, wenn es gelingt, die 'Einheit' des Stimmenmusters auch in Situationen großer emotionaler Belastung oder anderer stimmverändernder Faktoren zu erfassen (2), und wenn die Technik dahingehend verbessert wird, dass Stimmerkennung auch bei Rauschen und äußeren Begleitgeräuschen möglich ist (1).

 
Gründe, warum die Biometrie nicht als zukunftsträchtig gilt

Die biometrischen Dimensionen von Stimme ufern zu weit aus, um mehr als nur punktuell erfasst werden zu können. Die Verbindung zwischen Stimmqualität und glottaler Funktion wird zunehmend aufgeklärt. Die Erweiterung des Begriffs 'Stimme' um die biometrische Komponente jedoch hat eine zu vieldimensionale Ausprägung (1). Außerdem können Biometrie-Anwendungen zu menschlichen Abwehrreaktionen ähnlich wie bei der Erfassung von Fingerabdrücken, Iris-Scan etc. führen (2).

 Sicherheit bei der Anwendung von Biometrie

Biometrie ist in der Anwendung nur bedingt (9) oder gar nicht sicher (3). Nur die Kombination mit anderen Modalitäten und (Authentifizierungs-)Verfahren, wie z.B. Gesichtsscanning, Online- Unterschrift, Iriserkennung und Fingerabdruck würde für sicherheitskritische Anwendungen eine akzeptable Sicherheitsstufe gewährleisten (6). Ohne derartige Zusatzverfahren könnte durch verstecktes Aufnehmen eines Sprechers sein individueller Biometrie-Code kopiert und zum Knacken des Sicherheitsportals genutzt werden (1). Auch kann heutzutage ein leicht adaptierbares Hidden-Markov-Model (HMM) Sprachsynthese-System fast jedes Sprecherverifikationssystem überlisten, sobald von dem fraglichen Sprecher genügend Daten vorliegen (1). Daher sollten Biometrie-Verfahren nur bei unkritischen Anwendungen zum Einsatz kommen.