Archiv verlassen und diese Seite im Standarddesign anzeigen : Text-> Sprache
Avalox/Gast
2007-05-15, 10:42:57
Ich bin schon echt beeindruckt, wie gut die Sprachsynthese geworden ist.
Heise nutzt nun http://www.readspeaker.de/ ein um Newsmeldungen in ein Sprach MP3 File wandeln zu lassen. Finde ich schon sehr beeindruckend die Ergebnisse.
Hier die Meldung natürlich kann man sich diese auch gleich vorlesen lassen.
http://www.heise.de/ix/news/meldung/89550
Mastermind
2007-05-15, 11:32:26
Ich bin schon echt beeindruckt, wie gut die Sprachsynthese geworden ist.
Heise nutzt nun http://www.readspeaker.de/ ein um Newsmeldungen in ein Sprach MP3 File wandeln zu lassen. Finde ich schon sehr beeindruckend die Ergebnisse.
Hier die Meldung natürlich kann man sich diese auch gleich vorlesen lassen.
http://www.heise.de/ix/news/meldung/89550
Die Technologie für eine ordentliche Sprachsynthese gibt es schon länger. Seit dem ist es eher eine Sache des Aufwandes und ein wenig auch Sache der Rechenleistung. Bedauerlicher Weise ist der Markt für Sprachsynthese nicht umwerfend erquickend und die Entwicklung scheint nicht großartig voranzuschreiten.
Da find ich es beeinndruckender, wie gut mittlerweile Spracherkennung funktioniert. Die wird aber auch vielfach gebraucht und genutzt und dementsprechend auch fleißig weiterentwickelt. :smile:
Avalox/Gast
2007-05-15, 11:40:26
Ich denke dass früher oder später die klassische Mensch I/O Schnittstelle Monitor/Tastatur an Bedeutung verlieren wird. Ist ja mit eines der ältesten Übrigbleibsel in der EDV. Beim Mobil Computing schleppt sich der Anwender ja sogar quasi nur noch am I/O ab. Eigentlich völlig indiskutabel, auch beim PDA einfach das Display kleiner zu machen und die Tastatur auf das PAD zu verlegen.
Auch das Handy ist ja arg eingeschränkt. Obwohl es ja eigentlich das sprachgetriggerte Gerät schlechthin ist. Na ja eine Sache des Fortschritts.
Ich denke sobald Spracheingabe ihre breite Anwendung findet, wird auch die Sprachsynthese einen neuen Aufschwung erleben. Aber das oben gefällt mir schon richtig gut.
superdash
2007-05-15, 12:47:33
spracheingabe ist nicht wirklich eine alternative. Wie soll das denn in Büros usw gehen. Jeder sitzt sprechend vorm pc und ist nur nach am labern. Das ist auch ziemlich ineffizient. Maus und Tastatur sind im Gegensatz dazu sehr effizient und werden auch nicht so schnell abgelöst werden.
Aber eigentlich gehts ja um Sprachsynthese. Dafür kann ich mir allerdings schon anwendungsgebiete vorstellen. Es gibt ja schließlich kopfhörer.
gruß
CordyK.
2007-05-15, 13:24:27
Ein sehr intelligentes programm :)
Hört sicht relativ flüssig an, wirklich praktisch.
Ich lese aber lieber.
looking glass
2007-05-15, 14:01:37
Mhhh, ich bin auch schneller mit lesen und Maus ist auch fixer, ich sehe aber für diese Technik ein anderes Betätigungsfeld, sofern die Technik dahinter auch gewisse emotionale Erregungszustände in die Sprachausgabe einbringen kann - und zwar zur Vertonung von Computerspielen, speziell hierbei gedacht für die Modcommunity, nicht unbedingt für eine Verkaufsversion.
Könnte mir vorstellen, das dies als kaufbare SDK Beilage gewissen Anklang finden könnte, so manches RPG Projekt würde sich sicherlich darüber freuen, sofern genug Sprachmodulationen für unterschiedliche Charakter möglich wären.
Ebenfalls könnt ich mir vorstellen, wäre diese Sprachsache gut für Nachrichtenpodcast, wo man sich mit einem lernenden Programm seine bevorzugten Quellen und Sachthemen zusammensucht und das Programm aus diesen Nachrichten dann einen personalisierten Podcast generiert, für den Weg zur Arbeit oder Schule doch keine schlechte Sache.
Mein Gott, das fällt euch erst heute auf? Windows XP brachte die Funktion standardmäßig schon im Jahre 2001 mit!
Klickt mal auf die Systemsteuerung>Spracheingabe/Ausgabe. Die Stimmen ließen sich nach beliebem austauschen und man konnte sich Dialoge oder was auch immer auf dem Bildschirm zu sehen war, vorlesen lassen.
Schön das es nach 6 Jahren endlich mal jemand gemerkt hat! ;D
Endorphine
2007-05-15, 19:22:40
Sprachsynthese konnte schon mein Amiga 500 mit 1 MB RAM und 16-Bit Motorola 68000 mit 8 MHz in brauchbarer Qualität. Das ist nicht die Schwierigkeit.
Der umgekehrte Weg -- die Spracherkennung -- ist das Problem. Wenn man dieses Problem effizient lösen könnte, so dass eine Echtzeit-Spracherkennung mit höchster Zuverlässigkeit mit wenig Rechenleistung für viele verbreitete Sprachen (+Dialekt etc.) möglich wäre könnte man die benötigte Datenrate für ein Telefongespräch auf wenige Bit/s reduzieren. Wenn ich mich recht entsinne liegt der mittlere Informationsgehalt der Sprache bei unter 20 Bit/s. Wenn zwei Frauen telefonieren könnte man die Datenrate vielleicht sogar gegen 0 Bit/s gehen lassen. :D
Sprachsteuerung würde dann auch einen einen enormen Boom erleben. Also los, entwickelt und forscht. Es sind Milliarden zu verdienen. :)
looking glass
2007-05-15, 21:03:39
Toll ihr Schlaumeier, dann lasst mal eine auf englische Sprachausgabe getrimmte Stimme, deutschen Text vorlesen, oder warum dieser Tread exisistiert, die Stimme von readspeaker ne englische Meldung vorlesen.
Es geht hier nicht darum, irgendwas in Technospeak rauszuhauen, sondern um die korrekte Phonetik einer Sprache - so wie man sie im Sprachraum gewöhnt ist, ertönen zu lassen.
Und daran krankte sowohl die Technk von MS, als auch die von Apple, den die hatten das auch schon seit OS X mit drin - es blieb jedoch dabei, englisch only.
Wen es danach gehen würde, dann hab ich mein erstes Sprachsample auf nem C64 gehört, wäre also kein Ding gewesen, das auszubauen, nur hat es sich grottig hoch drei angehört, rückblickend.
Toll ihr Schlaumeier, dann lasst mal eine auf englische Sprachausgabe getrimmte Stimme, deutschen Text vorlesen, oder warum dieser Tread exisistiert, die Stimme von readspeaker ne englische Meldung vorlesen.
Deswegen gibt es Stimmenvorlagen für jede erdenkliche Sprache... sehe darin nix besonderes, die Thematik ist schon uralt.
Interessant wäre mal ne LIVE Übersetzung von TEXT in Sprache... z.B. deutsch Text -> englische Sprache!
looking glass
2007-05-15, 21:42:28
Nein eben nicht Gast, wens nämlich so einfach wäre, gäbs das schon längst - Phonetik ist nicht so einfach und es gibts auch nicht für jede Sprache.
Weiterhin zeigt dein Zusatz deutlich, das Du keine Ahnung zu haben scheinst - den ansonsten würdest Du nicht die Begriffe Übersetzung und Sprachausgabe verknüpfen wollen, Übersetzungen ist ein ganz anderes Thema und noch komplexer als Sprachausgabe oder Erkennung. Von Live kann zudem von deutsch nach englisch gar keine Rede sein, den das ist das schwierige an der deutschen Sprache, ein ganzer Satz kann seine Bedeutung verlieren, weil sie so nette Sachen kennt wie "...blablab spielte, blablabla, vor.". Das kannst Du nicht Live, on the fly übersetzen, Du musst darauf warten, das der Satz beendet wurde, mit all seinen eingeschobenen Nebensätzen, erst dann kann der übersetzer heran gehen, da erst dann die Bedeutung 100% klar ist (das gleiche in Umgekehrter Richtung, wen auch nicht so schlimm).
Deshalb gibt es auch zwei Arten der zeitnahen Übersetzung, jene die mit einem c.a. satzbezogenen Verzug arbeitet und jene die mit c.a. Absatzstärke einsetzt. btw. ist letztere teurer, wen man sich einen Dolmetscherservice gönnt.
Avalox/Gast
2007-05-15, 21:42:53
Ich finde die Qualität der Synthese ausgezeichnet. Wirklich bemerkenswert, es hat sich doch einiges getan.
Unter http://ttssamples.syntheticspeech.de/deutsch/index.html kann man sich übrigens verschiedene Systeme anhören und einfach mal vergleichen.
wens nämlich so einfach wäre, gäbs das schon längst
So ist es auch.
Phonetik ist nicht so einfach und es gibts auch nicht für jede Sprache.
Ist auch gar nicht nötig. Nicht jeder braucht dieses Zeug. Zudem sind die Sprachen wie deutsch, englisch, französisch, italienisch, spanisch etc. schon lange verfügbar.
Weiterhin zeigt dein Zusatz deutlich
Weiterhin zeigt dein Zusatz, das du nicht in der Lage bist text zu lesen und zu verstehen. Ich habe von einer Weiterentwicklung geht. Aber schön, das du einen Grund zum bashen findest, weil du nicht in der Lage bist, das zu verstehen. :up:
looking glass
2007-05-15, 22:46:25
Falsch, es kann keine Liveübersetzung geben, da hilft auch keine Weiterentwicklung, vielleicht solltest nochmal lesen, was ich geschrieben habe, eine Übersetzung in diese beiden Sprachen wird immer zeitversetzt von statten gehen müssen.
Btw. dürfte eine ähnliche Hürde auch bei franz. gelten, hierbei ist dann aber eher mit Pausen zu rechnen von franz ins deutsche, da die franz. Sprache keine zusammengesetzen Hauptwörter kennt (ausser natürlich sie benutzen die allseits beliebten Abkürzungen, dann folgt erstens letzteres, zweitens muss die Übersetzung dann auch noch sehr, sehr viele Abkürzungen ala TÜV, ASU usw. kennen), umgekehrt muss mit einer variierenden Verzögerung gerechnet werden bei zusammengesetzen Hauptwörtern, die eben eine längere Aussprechphase in franz. benötigen.
Btw. Du sprachst von jeder erdenklichen Sprache, nichtmal von vielen, jetzt kommst Du mit weit verbreiteten, europäischen Sprachen, immer noch fehlen mal eben, mhh, ich bin nett, 2,5 Milliarden Menschen aus Indien und dem asiatischen Bereich bei der Aufzählung.
Und es ist nötig, um eine verständliche Sprachausgabe zu generieren, wen das nicht nötig wäre, könnten alle die Schnellsprachausgabe aus dem Blindensystem nehmen - schon mal gehört? Wen nicht, viel Spaß beim verstehen, ist man darin nicht geübt, kannst mal ganz schnell vergessen, überhaupt was zu verstehen.
Falsch, es kann keine Liveübersetzung geben
So ein Unsinn.
Du kannst, wenn du ein Wort liest, dir es in Sprache ausgeben lassen. Du kannst auch, wenn du ein Wort fertig geschrieben hast, dir es in Sprache umwandeln lassen. Du kannst schon, noch bevor du es fertig geschrieben hast, in Sprache umwandeln lassen - aufgrund von Wortdatenbanken ist das kein Problem. Schon während du das Wort "Wasse..r" schreibst, kann ein Abgleich mit einer Wortdatenbank stattfinden und eine Übersetzung veranlasst werden, das geschieht mit der passenden Rechenleistung innerhalb von nano - millisekunden.
Warum sollte das nicht gehen? Ich und jeder andere Programmierer dieser Welt weiß wie es funktioniert.
Schließlich redete ich nicht davon, das diese Übersetzung hoher Qualität sei, sondern lediglich "funktioniert". Bitte das nächste mal genauer lesen.
Mit steigender Wortanzahl nimmt dann auch die Qualität zu. Beim vorlesen ganzer Texte wäre sowas sehr hilfreich, um Fremdsprachen zu erlernen. Wer wünscht sich nicht mal eine Software, die die geschriebene Wörter gleich übersetzt und in Sprachform ausgibt?
Neomi
2007-05-16, 01:05:56
Schon während du das Wort "Wasse..r" schreibst, kann ein Abgleich mit einer Wortdatenbank stattfinden und eine Übersetzung veranlasst werden, das geschieht mit der passenden Rechenleistung innerhalb von nano - millisekunden.
Warum redest du von Übersetzung, wenn du Aussprache meinst? Aussprache ist eine Umwandlung von einer beliebigen Textform in gesprochene Sprache. Übersetzung ist die Umwandlung von einer Sprache in eine andere, unabhängig davon ob geschrieben oder gesprochen. Das sind zwei grundverschiedene Dinge.
Für eine Übersetzung ist tatsächlich der vollständige Satz nötig, die Begründung steht schon weiter oben.
Warum redest du von Übersetzung, wenn du Aussprache meinst?
Herrje. Weil ich die ganze Zeit schon keine Aussprache meine, sondern Übersetzung!! Steht eindeutig und exakt in Textform definiert ein paar Posting weiter oben. ;) Tomaten auf den Augen?
Ich zitiere: "z.B. deutscher Text -> englische Sprache!"
Dafür fände ich diese Technologie sehr interessant. Man könnte deutsche Texte, die man versteht, in englische Sprache umwandeln lassen und so spielend neue Fremdsprachen erlernen.
Die Grammatik ist neben der Sprachausgabe natürlich ein weiteres Problem, aber auch hier bleibt die Entwicklung nicht stehen und höhere Rechenleistungen, ermöglichen größere Datenbanken bzw. Berechnungen, ob und wie die Wörter in Zusammenhang stehen.
looking glass
2007-05-16, 02:22:02
Sorry Gast, Du hast keine Ahnung vom Thema - Grammatik gibt einer Sprache erst Sinn, um sie so zu verstehen, wie wir es tun, dies bedingt die Beendung der Sätze.
Alles andere wäre genau das, was Babelfish ausgibt - ich nenn das nicht Übersetzung, denn den Sinn dahinter kann man meist nur erahnen, wen man halbwegs was vom übersetzten Thema versteht.
Sachen wie LEO sind schon super gelöst, dort gibt es auch Aussprachesamples.
Weiterhin steckt die Übersetzung immer noch in den Kinderschuhen, den um richtig übersetzen zu können, müsste die Software erstmal verstehen und um das zu können, muss sie den Sinn von Wörtern in einem Kontext verstehen, was nochmalig die Stufe erhöht, mit der agiert werden muss 8um z.B. Doppelbedeutungen einschätzen zu können). Nicht davon zu sprechen, das eine Software z.B. Sprichworte erkennen und ein geeignetes Gegenstück in der anderen Sprache finden muss, sind diese Sprichwörter in einen Text eingebunden, muss sie dies erstmal filtern usw.. Mal davon ab, das gewisse Sachen nicht übersetzbar sind, weil die andere Sprache etwas ähnliches gar nicht kennt.
Das mein Lieber dauert noch Jahrzehnte. Bis dahin dürften schon längst andere Sprachausgabetechniken vorhanden sein, bassierend z.B. auf einer Kehlkopfsimulation usw. (was es rudimentär schon heute gibt) - und auch bei solch dann fortschrittlichen Techniken bleibt die Tatsache, das der Satz beendet werden muss, um die korrekte Übersetzung zu liefern.
In der Qualität wie bei heise gabs das schon vor zehn Jahren. Ich muß mich beim Zuhören deutlich stärker konzentrieren als beim Lesen und bei Abkürzungen oder Fachbegriffen ist esganz vorbei.
Diese automatisch generierte Sprachausgabe zeigt gerade daß das Unsinn ist. Hätte heise eine Frau eingestellt die jeden Beitrag auf Band spricht, wäre das Ergebnis unvergleichbar besser, würde mehr Nutzer anziehen und wäre in Summe wohl auch noch billiger.
Also ich find das bei Heise eigentlich überraschend gut.
Sorry Gast, Du hast keine Ahnung vom Thema
Sagt jemand, der mich nicht einmal verstanden und an meinen Anmerkungen vollkommen vorbeigeredet hat. :ulol:
Alles andere wäre genau das, was Babelfish ausgibt - ich nenn das nicht Übersetzung, denn den Sinn dahinter kann man meist nur erahnen, wen man halbwegs was vom übersetzten Thema versteht.
Babelfish ist deshalb so schlecht, weil es Wort für Wort übersetzt und nicht im Zusammenhang. Das geht schon seit Jahren so. Jetzt ist die Rechenleistung schon so viel höher, aber genutzt wird diese nicht. Wird mal Zeit das es da vorran geht, denn nur so kann die Sprachausgabe wirklich vorrankommen und auch für den Nutzer interessant werden.
Das gleiche Problem gibt es bei der Ausgabe: Die Sprachausgabe ist so doof und zitiert Dinge, die gar nicht dahin gehören. Von Fachwörtern ganz zu schweigen.
Würde man die Erkennung der Grammatik verbessern, kommt das nicht nur der Übersetzung, auch der Aussprache bzw. Sprachausgabe zugute.
WhiteVelvet
2007-05-16, 08:05:12
Ich denke dass früher oder später die klassische Mensch I/O Schnittstelle Monitor/Tastatur an Bedeutung verlieren wird. Ist ja mit eines der ältesten Übrigbleibsel in der EDV.
Das klingt aber negativ ;) Ich hoffe die Tastatur und die Mouse bleibt erhalten, wie soll man denn sonst einen Shooter spielen? So schnell kannst Du gar nicht die Buchstaben nennen ;) Und Du hast halt das bereits angesprochene Problem in Büros auf der Arbeit. Ferner ist die I/O dann völlig von der Software abhängig, oder wie oft stürzt Dein Tastaturtreiber ab? ;)
Wäre genauso ein von der Industrie vorgegebenes Märchen wie die Abschaffung der Diskettenlaufwerke. Ich denke da nur an die Installation von Win2000/XP und SATA-Platten wo man die Treiberdisk unbedingt braucht. Die Diskette ist im Moment immernoch das am besten verfügbarste und einfachste Medium auf der untersten Ebene.
looking glass
2007-05-16, 14:14:09
Gast, ich gratuliere zur lernresistenz...
nochmal, Du kannst nichts übersetzen lassen und das korrekt, wen nicht erstmal der Satz beendet wurde. Du kannst momentan keine bessere Übersetzung liefern, als eine wörtliche mit ein paar spezifischen Abhängigkeiten, weil die Maschine um richtig übersetzen zu können, den Text verstehen müsste, das bedeutet sie müsste nicht nur wissen, was ein einzelnes Wort bedeutet, sondern auch den Kontext in dem es steht (z.B. Das der platzende Ballon beim Kindergeburtstag, kein Fesselballon ist).
Und um das zu können, muss die Maschine erstmal lernen lernen, danach neuronal vernetzen können und danach gewichten können, irgendwann später, wen der Wortschatz und um die Bedeutung der Worte genug angewachsen ist, kann sie vielleicht mal Kontexte bilden - aber das, das dauert, weil bisher die Grundlagen noch nicht soweit entwickelt sind, das man davon überhaupt schon reden kann.
Und das muss die Maschine erstmal für jede Sprache einzeln mitbekommen, bevor sie an eine Übersetzung gehen kann.
Und entschuldige wen ich das sage, grad einem so tollen Programmierer, aber diese Thematik ist eine fachübergreifende Arbeit - ein Grossteil des Inputs kommt aus Bereichen wie z.B. der Linguistik, Germanistik usw.. Du glaubst ernsthaft es reicht mal eben ne Wortdatenbank und ein bischen Code, wo lebst Du?
Du kannst nichts übersetzen lassen und das korrekt, wen nicht erstmal der Satz beendet wurde.
Habe ich nie behauptet und dich sogar extra darauf hingewiesen!!
Übersetzung Wort für Wort ist mit heutigen Mitteln ohne Probleme möglich. Das Ergebniss ist nicht von hoher Qualität.
Sowohl bei der Aussprache (Betonung) als auch bei der Übersetzung wäre eine weit bessere Qualität möglich, wenn vor der Umwandlung in Sprache nicht nur das eine Wort, sondern 2, 3, 4 5 oder gar ein ganzer Satz hinzugezogen werden würde.
Dafür bräuchte man eine Art Datenbank wie es sie bei leo.org gibt - die von Usern mit Wörtern jederzeit erweiterbar ist. Und natürlich viel Rechenleistung, da der Rechenaufwand enorm steigt, wenn nicht nur ein, sondern gleich zwei, drei, vier... Wörter analysiert werden müssen.
Es gibt ein Projekt ähnlicher Art: http://y.20q.net/ . Das ist eine Webseite, auf der man Fragen beantworten muss und das Programm errät dann innerhalb kurzer Zeit woran man gedacht hat. Dieses ist lernfähig und mit jeder beantworten Frage lernt es dazu. So ein Projekt auf andere Bereiche anzuwenden, wäre mal ein echter Fortschritt. Mich würde mal interessieren, wieviel Rechenleistung derjenige, der die Webseite ins Leben gerufen hat, zur Verfügung stellt.
Die Sprachausgabe schaffts im moment noch nicht mal Virenbezeichnungen korrekt auszusprechen. ;)
Avalox
2007-05-18, 20:45:47
Übrigens sollten ja demnächt die ersten Ergebnisse von Yamahas VOCALOID 2 Gesangssynth zu hören sein. Auch eine Form von Text in Sprache. Wenn auch ziemlich kompliziert in der Gestaltung.
Hier noch ein paar Stücke vom Vorgänger Vocaloid.
http://vocaloid-user.net/modules.php?name=Downloads&d_op=viewdownloaddetails&cid=11&lid=303&ttitle=Dr._Strange#dldetails
und was älteres
http://vocaloid-user.net/modules.php?name=Downloads&d_op=viewdownloaddetails&cid=11&lid=82&ttitle=project_X_intro_-lola.mp3#dldetails
Nasenbaer
2007-05-20, 16:47:22
Es gibt ein Projekt ähnlicher Art: http://y.20q.net/ . Das ist eine Webseite, auf der man Fragen beantworten muss und das Programm errät dann innerhalb kurzer Zeit woran man gedacht hat. Dieses ist lernfähig und mit jeder beantworten Frage lernt es dazu. So ein Projekt auf andere Bereiche anzuwenden, wäre mal ein echter Fortschritt. Mich würde mal interessieren, wieviel Rechenleistung derjenige, der die Webseite ins Leben gerufen hat, zur Verfügung stellt.
Warscheinlich neuronale Netze, wenn es lernt. Die KI ist noch sowas von jung, dass es bei diesem eingeschränkten Frage-/Antwortspiel vielleicht funktioniert aber versuch das mal korrekt zu übersetzen:
"Tja Übersetzung ist ja sowas von einfach, wenn man das vom Computer machen lassen will. Das bekommt jeder Idiot hin."
So Sarkassmus erkennen ja selbst genug Menschen nicht - wie sollte sowas von einer Maschine fehlerfrei erfasst werden. Sowas kann man auch nicht mit einer DB begegnen (so mein ich eigentlich nun Datenbank oder Deutsche bahn und was meine ich mit "begegnen"?) Sowas versteht ein gebildeter Mensch alles ohne Probleme aber schau dir doch einfach mal "Sprache -> Text"-Systeme an.
Dort musst du auch raten was derjenige meinte und es dann hinschreiben. Mein er mit Wahl ne Wahl eines Oberhauptes oder ein Säugetier? Du wirst sehen, dass selbst die Systeme, zwar lernend aufgebaut sind und zudem Datenbanken nutzen aber vieles noch nicht perfekt funktioniert und nun muss daraus auch noch ne Umwandlung in ne andere Sprache stattfinden. Das wird noch etliche Jahre dauern, bis sowas läuft. 2020 kann man sich dann nochmal umschauen.
Achso und nochwas: Es werden häufig Sprachen gemischt und dann wird noch schwerer. Dem kann man auch nich so einfach mit ner DB entgegenkommen, denn es gibt gleiche geschriebene Wörter in Unterschiedlichen Sprachen. Wenn ich in nen Elektroladen gehe und nen Taster brauche dann will ich keinen Vorkoster haben. :D
Wobei ich denke, dass Gehirnströme als Eingabesystem sicher eher für die Zukunft gedacht sind. Momentan mit hübschen Badehauben und nur geringen Möglichkeiten aber irgendwann ist das sicher mal was brauchbares und dann kann man das auch im Büro nutzen im Gegesatz zu Diktiersystemen. Aber dafür werden sicher auch noch über 20 Jahre nötig sein.
Es geht nicht ums raten, sondern darum die Situation zu analysieren.
Dazu bräuchte es unmengen an Rechenleistung. Dann könnte man das Programm so auslegen, das es nicht nur ein Wort, sondern gleich 2-3-4 Wörter im vorraus liest, bevor es mit dem übersetzen anfängt. Würde man so eine Datenbank wie bei leo.org hinzufügen, so würde das Programm diese nach und nach durchsehen, ob ein Eintrag davon passend ist. Da dieser von Menschen angelegt wurde (einmalig), ist da natürlich die Fehlerrate wesentlich geringer.
Dann wäre es natürlich noch schön, wenn das Programm selbst dazu lernt und häufige Übersetzungsfehler, sobald man es einmal darauf aufmerksam gemacht hat, in Zukunft meidet... einfach zu programmieren ist das nicht, aber möglich wäre es! Dafür müsste aber jeder mindestens nen Quad zuhause stehen haben :)
Nasenbaer
2007-05-20, 18:50:04
Es geht nicht ums raten, sondern darum die Situation zu analysieren.
Dazu bräuchte es unmengen an Rechenleistung. Dann könnte man das Programm so auslegen, das es nicht nur ein Wort, sondern gleich 2-3-4 Wörter im vorraus liest, bevor es mit dem übersetzen anfängt. Würde man so eine Datenbank wie bei leo.org hinzufügen, so würde das Programm diese nach und nach durchsehen, ob ein Eintrag davon passend ist. Da dieser von Menschen angelegt wurde (einmalig), ist da natürlich die Fehlerrate wesentlich geringer.
Dann wäre es natürlich noch schön, wenn das Programm selbst dazu lernt und häufige Übersetzungsfehler, sobald man es einmal darauf aufmerksam gemacht hat, in Zukunft meidet... einfach zu programmieren ist das nicht, aber möglich wäre es! Dafür müsste aber jeder mindestens nen Quad zuhause stehen haben :)
Ich will dich nicht als dumm darstellen aber deine Stärken liegen sicher nicht in diesem Bereich. Wenn ich für ne Überschrift eines Algorithmus "raten" durch "analysieren" ersetze wird er dadurch keinesfalls besser.
Wenn du mal überlegst wirst du genug Situationen finden in denen du selbst mal etwas falsch interpretierst. Du hast ein informales Modell (Mensch wie er Sprache versteht) und hoffst, wenn du nen Supercomputer in Keller stellst und ne MySQL DB danebenhaust, dass das dann formal korrekt arbeiten kann. Das klappt so nicht.
Beschäftige dich mal mit theoretischer Informatik, insbesondere formalen Sprachen und finde raus warum natürliche Sprachen (deutsch, englisch etc.) nicht formalisierbar sind. Du kannst keine formal korrekte Grammatik dazu angeben. Darum sind diese Sprachen so schwer zu handhaben. Jeder Compiler kann dir sagen, wenn dein Programm falsch ist (ich mein hier auf Syntax bezogen) aber das klappt mit natürlichen Sprachen nicht so einfach. Sonst würden Word und Konsorten auch wesentlich besser Grammatik kontrollieren können.
Falls du dich fragen solltest warum Grammatik so wichtig ist, weil daurch Sätze komplett andere Bedeutungen bekommen können. Und das ist nur einer der Aspekte, die es so schwierig machen.
Es geht nicht darum ob die Rechenleistung ausreicht oder nicht, es muss erstmal ein sinnvoller Algorithmus gefunden werden, der es, unabhängig von der Laufzeit, schafft mit geringer Fehlerquote die Aufgabe zu bewältigen. Nach besseren Algorithmen kann man dann immer noch suchen.
Der Ansatz einer Diphonsynthese lässt es einfach nicht zu ordentliche Ergebnisse für jede Sprache der Welt zu erzeugen.
Dazu braucht es schon eine Formantensynthese, diese sind aber erhebliche komplexer und klingen atm einfach noch nicht so doll, dafür können sie theoretisch jeden Laut der Welt wiedergeben...
Avalox/Gast
2007-07-30, 19:06:34
Na wie viele Versionssprüge wird es noch geben, bis es keine Casting Shows mehr geben wird?
http://www.myspace.com/jose_giuseppe
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.