Da wird es bestimmt einige witzige Vergebärdensprecher geben 😄 Ich finde das allerdings nicht so dramatisch, wenn es meistens gut funktioniert und wir somit alle wichtigen (oder mehr) Sendungen übersetzen.
Ich sehe es tatsächlich auch erstmal positiv, aber bei dem aktuellen Stand der KI, wird es leider unvermeidlich zu solchen Patzern kommen. Wobei natürlich auch der beste menschliche Dolmetscher sich mal verspricht.
Wie wäre es denn mit einem Kompromiss, Automatik bei Live-Sendungen, Automatik mit Editor der das noch mal Probe liest bei allem was nicht live ist? Sollte immer noch reichlich Zeit und Kosten sparen.
Wo trainiere ich dann bitte meine speech to text modelle? Also nicht ich sondern openai bspw..
Wenn man Stille in einer Aufnahme hat und whisper rüber jagt hat man oft copyright Angaben von öffis, die Existenz dieser Artefakte weißt darauf hin das ein größerer teil der Daten aus diesen Quellen stammt.
Ironisch wie der Einsatz von "ki" trainingsdaten vergiftet. Das fühlt sich ein wenig an wie der stahl aus schiffen vor den Atombombentest: pre-AI-Data .
Oder kurzum, besser als jetzt werden die Trainingsdaten nie gewesen sein
Gute Idee. Kenne ein Toll, wo das schon erstaunlich gut funktioniert. Kann mir vorstellen, dass es einigen Fremdsprachlern beim Deutschlernen helfen kann.
KI-Untertitel sind nach wie vor blanke Scheiße. An den entscheidenden Stellen, wo sie mal Value bringen könnten, versagen sie in aller Regel. Aber gut, mein Bild ist natürlich sehr von diesen unsäglichen Untertiteln geprägt, die einem in den meisten Kurzvideos aufgezwungen werden und mehr irritieren als nützen.