jobs920.com

  

Beste Artikel:

  
Main / Was bedeutet provokative Sprache für Kommunikation?

Was bedeutet provokative Sprache für Kommunikation?

Noch kein MyNAP-Mitglied? Registrieren Sie sich für ein kostenloses Konto, um spezielle Vergünstigungen nur für Mitglieder zu speichern und zu erhalten. Tatsächlich bilden sich schnell neue Unternehmen für diese Technologien. Diese Fähigkeiten sind jedoch nur dann von Nutzen, wenn sich die Gesellschaft sie leisten kann. Glücklicherweise haben explosive Fortschritte in der Mikroelektronik in den letzten zwei Jahrzehnten einen erschwinglichen Zugang zu dieser Raffinesse sowie zur zugrunde liegenden Computertechnologie sichergestellt.

Die Forschungsherausforderungen bei der Sprachverarbeitung bleiben in den traditionell identifizierten Bereichen Erkennung, Synthese und Codierung. Diese drei Bereiche wurden in der Regel einzeln angesprochen, häufig mit erheblicher Isolation zwischen den Bemühungen.

Dies impliziert ein tieferes Verständnis der Physik der Sprachproduktion, der Einschränkungen, die die Konventionen der Sprache auferlegen, und des Mechanismus für die Informationsverarbeitung im auditorischen System. Eine erfolgreiche Lösung ergibt die. Es wird auch die Tür zur sprachübersetzenden Telefonie öffnen, bei der die synthetische Fremdübersetzung in der Stimme des ursprünglichen Sprechers erfolgen kann. Sprache ist ein bevorzugtes Kommunikationsmittel zwischen Menschen. Es beginnt, ein bevorzugtes Mittel für die Kommunikation zwischen Maschinen und Menschen zu sein.

Für gut abgegrenzte Aufgaben können Maschinen zunehmend viele der Funktionen des Gesprächsaustauschs emulieren. Die Leistungsfähigkeit komplexer Computer kann daher für gesellschaftliche Bedürfnisse genutzt werden, ohne den Benutzer über die Kenntnis der natürlichen gesprochenen Sprache hinaus zu belasten. Da Menschen so konzipiert sind, dass sie in einer Luftatmosphäre leben, war es unvermeidlich, dass sie lernen, Informationen in Form von Longitudinalwellen zu vermitteln, die durch die Verschiebung von Luftmolekülen unterstützt werden.

Aber von den unzähligen Arten von akustischen Informationssignalen ist Sprache eine ganz besondere Art. Es ist auf drei wichtige Arten eingeschränkt:

Diese Einschränkungen waren für die Sprachforschung von zentraler Bedeutung und sind bis heute von größter Bedeutung. Die Sprachverarbeitung als Wissenschaft könnte als aus der Entwicklung der elektrischen Kommunikation geboren angesehen werden. Die Erfindung des Telefons und der Beginn der Telekommunikation als Unternehmen im Dienste der Gesellschaft stimulierten die Arbeit in den Bereichen Netzwerktheorie, Wandlerforschung, Filterdesign, Spektralanalyse, Psychoakustik, Modulationsmethoden sowie Funk- und Kabelübertragungstechniken.

Schon früh wurden die Akustik und Physiologie der Sprachgenerierung als kritische Fragen für das Verständnis identifiziert. Sie bleiben es auch heute, obwohl viel Wissen erworben wurde.

Alexander Graham Bell war unter denen. Er versuchte sogar, seinem Skye-Terrier das Artikulieren beizubringen, während er ein Knurren aufrechterhielt! Es wurde auch früh erkannt, dass die Eigenschaften von Audition und Wahrnehmung quantifiziert werden mussten, da das menschliche Gehör typischerweise das Wiedergabetreuekriterium für den Empfang von Sprachinformationen liefert.

Das psychoakustische Verhalten für Hörschwellen, Dynamikbereich, Lautstärke, Tonhöhe und spektrale Sprachverteilung wurde quantifiziert und beim Entwurf früher Telekommunikationssysteme verwendet. Außerdem wurde der analytischen Modellierung von Sprache erst in jüngster Zeit angemessene Aufmerksamkeit gewidmet, und dies hat zunehmend an Bedeutung gewonnen, da die Techniken für die Text-zu-Sprache-Synthese und die automatische Erkennung kontinuierlicher Sprache Fortschritte gemacht haben.

Um die Mitte dieses Jahrhunderts entstanden gleichzeitig die Theorie der Abtastdaten und die digitale Berechnung, die neue Perspektiven für eine qualitativ hochwertige Fernkommunikation eröffneten und das technische Design komplexer Systeme schnell und wirtschaftlich simulierten. Die Computertechnologie wuchs jedoch bald über die Datensortierung für Unternehmen und die Algorithmus-Simulation für die Wissenschaft hinaus. Die Bildverarbeitung und in jüngerer Zeit die taktile Interaktion haben ähnliche Schwerpunkte erhalten. Aber all diese Fähigkeiten nützen wenig, wenn sich die Gesellschaft sie nicht leisten kann.

Explosive Fortschritte in der Mikroelektronik in den letzten zwei Jahrzehnten haben einen erschwinglichen Zugang zu dieser Raffinesse sowie zur zugrunde liegenden Computertechnologie sichergestellt. Alle Anzeichen deuten darauf hin, dass die Fortschritte bei der Datenverarbeitung fortgesetzt werden und dass bei Bedarf wirtschaftliche Berechnungen zur Unterstützung der Sprachtechnologie durchgeführt werden.

Alte Experimente mit Sprache wurden oft durch den Wunsch beflügelt, zu überraschen, zu amüsieren oder zu beeindrucken. Sprechende Statuen und Götter wurden von den frühen Griechen und Römern bevorzugt. Aber manchmal war die grundlegende Neugierde der Antrieb, den der Zar Kratzenstein für sein Design von akustischen Resonatoren verlieh, die, wenn sie von einem vibrierenden Schilfrohr angeregt wurden, Vokal-Timbres simulierten. Und manchmal wurden die Bemühungen nicht wissenschaftlich anerkannt. Von Kemplens sprechende Maschine war größtenteils unerheblich.

Die Resonatoren wurden durch vibrierende Stimmzungen analog zu den Stimmbändern aktiviert. Die Ungleichheit mit natürlichen Artikulationsformen zeigt die Nicht-Einzigartigkeit zwischen Schallspektrum und Resonatorform i. Typischerweise legte ein Arm und eine Hand über den Hauptbalg und den Ausgangsresonator, um stimmhafte Töne zu erzeugen, während die andere Hand den Hilfsbalg und die Anschlüsse für stimmlose Töne betätigte. Dudley und Tarnoczy, 1950. Schallwellen breiten sich sphärisch aus und breiten sich nicht gut über Entfernungen aus.

Kommunikation über Entfernungen ist jedoch seit langem ein Bedürfnis in der menschlichen Gesellschaft. Mit fortschreitendem Verständnis elektrischer Phänomene entstand Mitte des 19. Jahrhunderts der elektrische Telegraph.

Nach diesem Erfolg mit Punkten und Strichen viel Aufmerksamkeit. Die Erfindung des Telefons ist Geschichte. Zu Beginn des 20. Jahrhunderts blieb der Anreiz die Sprachkommunikation über noch größere Entfernungen. Die Verstärkung von analogen Signalen, die sich mit der Entfernung abschwächen und Rauschen akkumulieren, war erforderlich. 1915 wurde das transkontinentale Telefon durch elektromechanische "Repeater" mit geringer Wiedergabetreue erreicht. 1927, als die Elektroniktechnologie aufkam, wurde das transatlantische Funktelefon Realität.

Das Verständnis der Bandbreitenkomprimierung wurde dann auf Datenschutz und Verschlüsselung angewendet. Transatlantische Voice-on-Wire-Kabel mussten 1956 auf die Entwicklung zuverlässiger Tauchverstärker warten. Mit diesen teuren hochwertigen Sprachschaltungen entstand erneut das Interesse an der Erhaltung der Bandbreite und stimulierte neue Entwicklungen wie die Zeitzuweisungs-Sprachinterpolation, die fast drei lieferte -fache Erhöhung der Kabelkapazität.

Ab der Mitte des 20. Jahrhunderts entstand ein Verständnis für Sampled-Data-Techniken, Digital Computing und Mikroelektronik. Der Wunsch nach Benutzerfreundlichkeit in komplexen Maschinen, die den menschlichen Bedürfnissen dienen, konzentrierte sich auf die Kommunikation in gesprochener Sprache. Flanagan et al. Es ergaben sich signifikante Fortschritte bei der Spracherkennung und -synthese. Die Erhaltung der Bandbreite und die Codierung mit niedriger Bitrate wurden sowohl für die Wirtschaftlichkeit der Speicherung in Anwendungen wie Voicemail als auch für die Einsparung von Übertragungskapazität hervorgehoben.

Die jüngsten Entwicklungen in der mobilen Mobilfunk-, persönlichen und schnurlosen Telekommunikation haben erneut Interesse an der Erhaltung der Bandbreite und damit einen erhöhten Anreiz für Datenschutz und Verschlüsselung geweckt. Wenn wir uns der Schwelle des 21. Jahrhunderts nähern, werden junge Systeme für die Übersetzung von Telefonie demonstriert.

Gegenwärtig wird nur eine Übersetzung vom Typ "Sprachführer" mit begrenzten Grammatiken und bescheidenen Vokabeln durchgeführt, und die synthetisierte Stimme dupliziert nicht die Qualität einzelner Sprecher. Das Übersetzen von Telefonie- und Diktiergeräten erfordert große Fortschritte bei den Rechenmodellen der Sprache, die natürliche Konversationsgrammatiken und große Vokabeln berücksichtigen können.

Erkennungssysteme, die Modelle für Teilworteinheiten verwenden, sind beneidenswert. Das Anwendungsszenario war ein Gespräch zwischen einem Bahnhofsvorsteher in Japan und einer britischen Touristin, die ihr Gepäck verloren hatte. In Echtzeit zusammenhängende Sprache, die zwischen Japanisch und Englisch übersetzt wurde, verwendete ein begrenztes Vokabular und eine "Sprachführer" -Grammatik. Lässige informelle Konversationssprache mit all ihren Launen und ihrer nicht-grammatikalischen Struktur stellt besondere Anforderungen an die Entwicklung nachvollziehbarer Modelle für Grammatik, Syntax und Semantik.

Eine grundlegende Herausforderung bei der Sprachverarbeitung besteht darin, Informationen im Sprachsignal darzustellen, zu quantifizieren und zu interpretieren. Traditionell konzentriert sich die Forschung auf die Bereiche Codierung, Sprach- und Sprechererkennung und -synthese.

Deutschland und Karlsruher Universität Deutschland. Gesprochene Sätze wurden zuerst erkannt und von einem Computer in geschriebenen Text übersetzt, der per Modem über eine Telefonleitung gesendet wurde. Ein Sprachsynthesizer am Empfangsende sprach dann die übersetzten Wörter. Das vorgestellte System beschränkte sich auf die Registrierung von Teilnehmern für eine internationale Konferenz. Die Herausforderung bei der Codierung besteht darin, die Qualität bei niedrigen Übertragungsraten zu erhöhen. Fortschritte werden durch die Einbeziehung von Wahrnehmungsfaktoren und durch eine verbesserte Darstellung der Spektral- und Anregungsparameter erzielt. Jayant et al.

Zunehmend komplexe Algorithmen werden verwendet, wenn die Codierungsrate abnimmt. Die Forschungsanstrengungen konzentrieren sich auf die Verbesserung der Qualität und Störfestigkeit bei Codierungsraten von 8 kbps und weniger. Bei der Codierung von Breitband-Audiosignalen war die offensichtliche Verwendung von Hörwahrnehmungsfaktoren innerhalb des Codierungsalgorithmus "hörspezifischer" Codierer bemerkenswert erfolgreich und ermöglichte eine Breitband-Signaldarstellung mit einem Durchschnitt von weniger als zwei Bits pro Abtastung.

Dies hat zur Folge, dass die FM-Stereo-Sendequalität über die öffentlich geschalteten digitalen Telefonkanäle übertragen werden kann, die vom ISDN Integrated Services Digital Network mit Basisrate bereitgestellt werden. Alternativ kann auf einer High-Fidelity-CD-Aufnahme bis zu achtmal mehr Signal gespeichert werden als herkömmlich. Bei der Stereokodierung werden die Links-Plus-Rechts- und Links-Minus-Rechts-Signale getrennt durch 2048-Punkt-FFTs getrennt transformiert.

Signalkomponenten mit spektralen Amplituden unter dieser Schwelle sind zu diesem Zeitpunkt bei stärkeren Nachbarn nicht zu hören. Daher müssen diesen Komponenten keine Bits für die Übertragung zugewiesen werden.

In ähnlicher Weise wird das Quantisierungsrauschen nicht aktiviert, wenn den stärkeren Komponenten Bits zugewiesen werden, so dass das Quantisierungsrauschspektrum unter dieser Maskierungsschwelle gehalten wird. Zunehmend komplexe Algorithmen werden verwendet, wenn sich die Darstellungsbits pro Probe verringern. Hörspezifische Codierer berücksichtigen menschliche Wahrnehmungsfaktoren, wie z. B. die Maskierung der Frequenz. Die Berechnung zur Durchführung der Codierung ist zwar wesentlich, aber hinsichtlich der gegenwärtig verfügbaren DSP-Chips nicht übermäßig.

Diese und verwandte Techniken beeinflussen die internationalen Standards für die Sprach- und Musikcodierung stark. Und es scheint, dass fortgesetzte Volkswirtschaften durch Wahrnehmungsfaktoren wie Maskierung in der Zeitdimension gewonnen werden können.

Siehe nachfolgende Diskussion der zeitlichen Maskierung. Leider waren Fortschritte bei der Erkennung und Synthese, insbesondere bei der Text-zu-Sprache-Synthese, nicht stark gekoppelt und haben sich nicht wesentlich gegenseitig gefördert.

Dies scheint größtenteils darauf zurückzuführen zu sein, dass die Erkennung mit den immens erfolgreichen HMMs der Hidden-Markov-Modelle eine Musteranpassungsrichtung eingeschlagen hat, während sich die Synthese stark auf die akustische Phonetik stützte, wobei Formantenmodelle und Bruchsilbenbibliotheken zum Erfolg beitrugen. Trotzdem sind die Techniken dazu bestimmt, in sprachinteraktiven Systemen Hand in Hand eingesetzt zu werden.

Beide können von verbesserten Rechenmodellen der Sprache profitieren. Die gegenwärtigen Fähigkeiten für den maschinellen Dialog ermöglichen eine intelligente, fließende Interaktion durch eine Vielzahl von Sprechern, vorausgesetzt, das Vokabular ist begrenzt und der Anwendungsbereich ist streng eingeschränkt. Flanagan, 1992.

In der Regel wird eine endliche Grammatik verwendet, um eine ausreichende Abdeckung für einen nützlichen Gesprächsaustausch bereitzustellen. Erweiterungen der Vokabulargröße, der Sprecherunabhängigkeit und der Sprachmodelle, die sich der natürlichen gesprochenen Sprache annähern, sowie eine qualitativ hochwertige Synthese sind Forschungsziele von Flanagan, 1992. Die Worterkennungsgenauigkeit liegt bei Vokabeln mit mehreren hundert Wörtern, die in zusammenhängender Form gesprochen werden, über 90 Prozent von einer Vielzahl von Sprechern.

Für kleinere Vokabulare wie die Ziffern liegen die Erkennungsgenauigkeiten für Ziffernfolgen e ebenfalls in den hohen 90ern. Mit derzeit verfügbaren Signalprozessorchips ist die Hardware zur Unterstützung der Erkennung verbundener Ziffern relativ bescheiden. Wiederum besteht eine wichtige Grenze in der Entwicklung von Rechenmodellen für Sprache, die eine natürlichere Sprache umfassen und eine uneingeschränkte Interaktion ermöglichen.

Computerlinguistik kann in diesem Bereich einen starken Beitrag leisten.

(с) 2019 jobs920.com