SF Saiyuki Starzinger – Episode 43

Shoot the Princess with Love

The Cosmos caught a rescue signal and headed for the planet Zyclo, the source of the transmission. However, the people seeking help were nowhere to be found. In fact, this was Bellamis’ plan to use the Princess’s compassionate nature to draw her away from the cyborgs. While Kugo and the others are fighting the monster Dragonfly that has appeared, the Princess is captured and taken away. Will her precious Galaxy Energy be misused for the sake of the Planet Lassetz? An anguished Jogo points the muzzle of his gun at the capsule carrying the Princess!

You can download the torrent file from Anidex or Anirena, or get direct links from AnimeTosho.

Translation Thoughts

If I had no job or life at all, it would take me exactly two days of 8-hour work each to translate an episode. The first day would be the actual translation. That’s the “fun” day. The second day is the “annoying day”, which consists of grammar and spelling checking, rewatching the episode completely to see if the translation makes sense and to change little things to make the story clearer, writing the new entry on this blog, and finally uploading the episode to Anidex, Anirena, Tokyo Tokoshan and Anime Tosho. The guys at Nyaa never wanted to create an account for me, and that’s why I don’t upload my episodes there.

So here’s the process in detail:

It’s faster to transcribe the whole episode to Japanese and then translate it to English than to translate from Japanese to English line by line. This is especially important because of the context. If you do it line by line, you’ll lose some of that context and some of the lines won’t make sense to the story.

Since we are in the AI age, I use an OpenAI software called Whisper to transcribe and time an episode. Specifically, I use Whisper.cpp, since it is faster. This will create a Video Text Tracks (VTT) file with the timed transcription of the episode. Of course, there will be many incorrect lines, incomplete lines, or merged lines between two different characters that the software mistook for one character and one line. Whisper really saves me at least half the time I would take to transcribe the whole episode, because even though there are always a lot of wrong lines and wrong things like names of characters, monsters, places or attacks, it does a really good job. Since I’m using it, the whole process takes a lot less time.

Using the NJStar Japanese Word Processor, I correct all of Whisper’s errors and mistakes. I prefer that to installing a Japanese IDE on my OS, because, honestly, I don’t write in Japanese that much.

Whisper can also translate the lines, but I just use it to transcribe. I know some groups are translating episodes entirely using AI, like AT-X translated Isekai Ojisan and released how they did it. People hated that translation, though. But I think in a few years, AI will translate everything, and translators won’t be needed anymore. Who knows?

Now it’s time to translate. I load the VTT file into Subtitle Edit. With this software, I can translate line by line and fix the timings that Whisper generated. It’s very simple to use. There’s an online version too.

After everything is translated, I use QuillBot for grammar and spelling checks. Then I create the episode using MKVToolNix and watch it from my basement couch on my Google TV using Kodi.

4 thoughts to “SF Saiyuki Starzinger – Episode 43”

  1. Hola!
    Me parece fantástico que la tecnología te esté ayudando en tu trabajo de traducción. Lo importante es que tú sabes lo que estás haciendo, conoces los idiomas con que estás trabajando y más (sabes mucho sobre televisión, curiosidades, cultura japonesa, etc. De otra manera no podrías dar contexto ni sentido a la historia, además de explicar con tanto conocimiento los detalles que siempre nos cuentas). Pienso que estás siendo muy serio y muy “profesional” y eso de verdad se agradece.

    Lo que no está bien es depender totalmente de la tecnología para traducir, que no tengas conocimiento real del o los idiomas en cuestión y dejar todo tal cual como lo hizo la AI. Entiendo que algunas personas lo hacen con buena intención, pero personalmente creo que uno debe ser responsable y si vas a embarcarte en semejante trabajo, pues debes tener conocimientos, si no mejor no o hagas.

    En cuanto a mí, yo sólo estoy usando Aegisub, mi cabeza y el Google Translate como diccionario cuando se me va alguna palabra o cuando me aparece vocabulario nuevo, nada más, jaja! Obviamente lo que tú haces es mucho más complicado traduciendo audio en vez de texto, aunque al final el audio lo termines convirtiendo en texto, igual el proceso requiere dedicación.
    Además me facilitas enormente el trabajo, porque dejas los capítulos listos, por ejemplo, casi no tengo que cambiar nada, como los time stamps, porque los dejas perfectos. Sólo cambio algo o lo de muevo si me queda alguna frase más larga después de traducir, lo que no pasó con los primeros 16 capítulos. No estaban tan perfectos y tuve que arreglar muchas cosas, incluso tuve que crear de cero los archivos .ass del 13, 14, 15 y 16, porque los videos sólo estaban en mp4 y no eran editables, pero me sirvió para aprender más del programa.

    Lo que yo hago primero que nada, es dejar listo el opening y el ending. Copio y pego del capítulo anterior y después arreglo los tiempos. Una vez eso listo, empiezo a traducir línea por línea, un minutos, depende del tiempo y el ánimo, o sea como que voy por bloques. Y después lo veo y reviso justamente como dices, por el contexto, y si hay algo raro, lo cambio.

    Después de terminar el capítulo, lo vuelvo a ver, pero a pantalla completa en el reproductor, con el Aegisub abierto y voy corrigiendo.

    ¡Todo esto ha sido tan entretenido!

    Y bueno, felicitaciones, porque has hecho un trabajo monumental en menos de un año… 27 capítulos tú solo y de una calidad tremenda!

    Ah! Y completé el N5! Pero tengo que estudiar mucho más todavía! El curso fue súper intensivo y casi morí, jajaja!

    1. Definitivamente el Whisper me está ayudando. Siento que utilizo menos el Audacity, que es un software de edición de audio que entre otras cosas permite poner el audio más lento sin cambiar el pitch. Todos los translators “relentizan” (¿estará bien dicho eso?) el audio. Para Kugo y Hakka es casi que obligatorio. Whisper definitivamente no tiene tantos problemas con ellos dos. Todo lo que sea para optimizar el tiempo que tardo en traducir es bienvenido.

      El problema del AI es que siempre va a tomar “la expresión o palabra más común”. En el episodio pasado por ejemplo, cuando Golios le dice a Bellamis que sería muy sencillo capturar a Aurora, ella responde con:

      大変なじしんだ
      Taihen na jishin da

      Puse el jishin en hiragana a propósito. Jishin puede ser muchas cosas entre ellas:

      地震 terremoto
      自信 confianza en uno mismo

      Whisper escogió terremoto por ende la línea sería “Oh! Eso es un gran terremoto!” lo cual es obviamente una estupidez pero está 100% correcto. Es decir, si no hay contexto y alguien dice “taihen na jishin da” uno lo va a traducir como “Wow! Es un gran terremoto!”.

      Pero lo que quiso decir es “Wow, tienes muchísima confianza en ti mismo” que uno pudiera inclusive cambiarlo todo para que suene mejor tipo “Wow, estás muy seguro de ello, ¿no?” o qué sé yo. Honestamente en inglés suena mejor. En español ni idea cómo lo pondría pero tiene que ser algo que entre líneas diga “eres un creído”.

      Pero igual con todo y eso Whisper hizo un buen trabajo porque al escuchar el audio y leer la línea al mismo tiempo ya sabía que Whisper había escogido el “jishin” que no era. Me ahorra tener que escribirlo. La verdad me gusta bastante y me ahorra mucho tiempo en la transcripción.

      ¡Y felicitaciones por el N5! Ya te debes saber al menos 120 kanjis entonces. Ya puedes leer todos estos cuentos que son súper cortos cada uno:

      https://tadoku.org/japanese/en/free-books-en

      Que digan Level 0 y Level 1 creo. ¡Hazlo! Cuando uno lee un libro en otro idioma (así sea un cuento para niños) y lo entiende 100% uno se siente realizado y que realmente está avanzando.

      1. Sí, el contexto es muy importante! Ahora ya entiendo cómo funcionan los kanjis, así que comprendo perfectamente a lo que te refieres.
        Muchas gracias por el link, me encantó! Estuve tratando de leer uno y pude, aunque sea la mitad de un cuento, jaja!, porque igual aparecen algunos kanjis que no me enseñaron, pero como está con furigana, pude buscar las palabras. Es simplemente vocabulario que obviamente me falta aprender. La estructura de las frases y la conjugación de los verbos ya la entiendo, por supuesto.
        De todas maneras tengo que repasar todo de nuevo. Aprender todos los kanjis, es muy difícil, y eso que tengo buena memoria.

        Y en algo no tan agradable… Se nos fue Leiji Matsumoto. Me acabo de desayunar la noticia :´(

        1. ¡Qué desgracia! No sabía nada de que había fallecido. Por lo visto fue en Febrero 13. Tenía 85 años. QEPD.

Leave a Reply

Your email address will not be published. Required fields are marked *