CPL

Reconhecimento de voz ou estenotipia: qual é o melhor serviço?

reconhecimento de voz vs estenotipia para closed caption ao vivo

REconhecimento de voz x estenotipia

Chegou o dia do grande fight! Muita calma nessa hora! A ideia não é fazer um combate direto, mas uma análise que te dê instrumentos para poder se orientar sobre as vantagens e limitações de cada modelo de produção.

Pedindo ajuda ao especialista

Como a iniciativa deste guia é do CPL – Soluções em acessibilidade, empresa que usa reconhecimento de fala para a produção de closed caption, fui pedir ajuda internacional a um dos maiores especialistas sobre o assunto em solo yankee, Gary Robson. Infelizmente, não foi um papo ao vivo, mas podemos contar com os dados e informações disponibilizados por ele no livro The Closed Captioning Handbook para trazermos uma certa neutralidade à comparação.

Closed Caption nos EUA, solo fértil

Os EUA são um terreno fértil para observações nesta área, pois lá a ferramenta já existe e é usada há muito tempo. Com isso, eles já passaram por diversas fases, o que resultou, inclusive, numa proliferação das Captioning Houses, como muitas vezes são chamadas as empresas produtoras.

A consequência disso é que surgiram vários profissionais, tanto da operação por voz, quanto por digitação, formando associações nacionais de “voice writers” e “stenocaptioners” . Evidentemente que cada uma das organizações têm uma vasta gama de dados que comprovam que seu método é o melhor e mais eficiente. 

Robson também foi buscar uma ajuda fora deste embate, recorrendo a Marty Block, um dos mais enfáticos proponentes do uso de estenotipia para closed caption, chegando a ser presidente da NCRA (uma espécie de associação nacional de estenotipistas) durante um mandato, e que se tornou CEO de uma empresa concorrente que trabalha com reconhecimento de fala.

Qual é o melhor método: a resposta de Block

Block diz que bons operadores, tanto por voz quanto por estenotipia, farão trabalhos de qualidade similar. Ele aponta, por outro lado, que levando em consideração o melhor estenotipista contra o melhor voice writer, o processo de digitação será o mais preciso.

O mais curioso, no entanto, é que Block deixa a estenotipia por não acreditar que a quantidade de stenocaptioners de ponta daria conta da imensa demanda, pois o tempo de aprendizado da técnica, para atingir níveis mínimos para uma transmissão de TV, é muito grande (anos) quando comparado ao tempo de formação de um captioner por voz. Nisso há fortes impactos de mercado, como o alto custo de mão de obra, visto à restrição de oferta de profissionais e o consequente aumento do custo do serviço.

É importante deixar claro que este livro traz estudos dos anos 2000 e que esta realidade vem mudando de forma cada vez mais favorável ao reconhecimento de voz, pois a estenotipia, apesar de também ter evoluído neste período, é uma tecnologia muito bem acabada, que parece já ter atingido seu ápice. Enquanto isso, do outro lado, gigantes da indústria como Apple, IBM e Google apostam suas fichas (e investimentos) para que esta ferramenta seja cada vez mais eficiente em todas as suas amplas possibilidades de uso.

Espero que até aqui tenha dado para se ter um panorama geral dos modelos de produção. Acho interessante aprofundarmos em questões mais específicas e cotidianas da operacionalização destes serviços. Mas faremos isso no próximo artigo. Enquanto isso, siga a gente nas redes, mande sua dúvida e comentário e até lá!

entre em contato para saber preços e informações

Sistemas de Closed Caption por Reconhecimento de Voz ou de Fala

CLosed Caption ao Vivo por Reconhecimento de Voz

Sistemas de closed caption baseados em reconhecimento de voz

Na parte 1 deste artigo, em linhas gerais, vimos como funciona a transcrição de texto usando sistemas de reconhecimento de fala. Nesta segunda parte, vamos analisar os  tipos de sistema de closed caption baseados em reconhecimento de voz que se tornaram a base de produção de legendas para programas ao vivo na maioria das emissoras do Brasil: automático e por relocução.

closed caption automático

A primeira ressalva que precisa ser feita, no caso desta tecnologia, é a respeito de sua curva de desenvolvimento bastante acentuada. É bastante impressionante o aumento da precisão deste tipo de aplicação, especialmente quando se trata de um programa onde os diálogo são mais uniformes e o áudio tem melhor qualidade, como nos caso dos telejornais, por exemplo. Sua operação dispensa dispensa operador, basta colocar a fonte de áudio no sistema gerador e este se propõe a fazer, sem nenhum auxílio humano, toda a operação de geração das legendas, incluindo a pontuação, informar quando há troca de falante, fundo musical etc.

Closed caption com relocução

O segundo método, por relocução, consiste em colocar um operador que escuta o que é dito no programa, repete para o microfone do sistema, que, além de gerar o texto a partir da fala, também permite o uso de teclas de atalho para identificar falantes, informar sobre músicas e sonoridades em geral. Há a necessidade de um bom conhecimento da língua para poder fazer esta operação, porque a pontuação também é feita através de ditado para a máquina. E tudo isso tem que ser feito mantendo uma boa dicção, condição importante para uma boa precisão.

Os atrasos das legendas

É desta cadeia de escutar, repetir e a máquina processar que surge o delay na transmissão. Além disso, como vimos na primeira parte deste artigo, da comparação dos fonemas com as palavras disponíveis no sistema, surgem probabilidades de um texto “casar” com um conjunto de sons. Ocorre que nem sempre esta estatística será perfeita, especialmente nos casos de menor incidência de uso de uma palavra dentro de algum contexto, pois ela acabará tendo menor probabilidade ocorrência, podendo gerar erro. Há, assim como na estenotipia, a possibilidade de uma palavra não encontrar seu correspondente textual, ocasionando uma “substituição” que deverá lembrar  o som da frase ou palavra original.

Mesmo no caso do closed caption automático, ainda assim há o tempo de processamento da máquina, que não deixa também de ser uma fonte de delay. O fato de não ter a operação de relocução, por outro lado, não é garantia de um atraso menor, pois, sendo um sistema mais complexo, pode demandar maior tempo de processamento. Evidentemente que isso também dependerá do equipamento que roda esta aplicação. De forma geral, seria leviano fazer uma comparação genérica, pois a maneira mais precisa de avaliação passaria pela análise da solução de cada fornecedor.

Precisão e qualidade

Pense numa grade televisiva variada, com programas jornalísticos no formato clássico, mas também programas de auditório com personagens de linguajar popular cheio de regionalismos. O desempenho de um sistema automático pode até ser interessante nos telejornais. Mas ainda deixam bastante a desejar quando são obrigados a acompanhar este ritmo de fala mais cotidiana.

A grande vantagem de ter um operador é que ele pode ajustar o modo de falar de forma a obter uma melhor precisão do reconhecimento, uniformizando melhor os dados  recebidos pelo sistema.

Além disso, não vi ainda um sistema automático que consiga fazer a identificação automática do falante. Já pude observar a sinalização da troca de falante usando o “>>”, o que funciona bem, mas perde em qualidade se comparado com a utilização da identificação entre colchetes.

As informações não literais também podem ser trabalhadas com mais detalhes quando se usa um operador para fazê-lo. Existem sistemas de closed caption automático que chegam a informar fundo musical com notinha, mas também nunca vi um que fosse capaz de informar o tipo de fundo musical, descrever a música da vinheta do programa, etc.

reconhecimento de voz é o futuro

De forma geral, os resultados obtidos usando reconhecimento de fala são cada vez mais expressivos e não estou me atendo apenas ao campo do closed caption para televisão. Esta ferramenta continua entrando em nosso cotidiano por diversas portas e janelas. É uma tecnologia que apresenta desenvolvimentos cada vez maiores e seu desempenho melhora a olhos vistos e parece que ainda há muito para onde expandir.

A dúvida que fica agora é: qual ferramenta vai te dar o melhor resultado, reconhecimento de fala com relocução ou estenotipia? Este “embate do século” fica para o próximo artigo. Até lá, sigam a gente nas redes e compartilhem esta publicação com seus conhecidos que também curtem acessibilidade!

entre em contato para saber preços e informações

Closed Caption para Programas ao Vivo por Reconhecimento de fala

Closed Caption ao Vivo por Reconhecimento de Fala

Closed Caption para Programas ao Vivo por Reconhecimento de fala - parte 1

Já foi mais difícil explicar para as pessoas como funciona o Closed Caption para Programas ao Vivo por reconhecimento de fala. Sempre rolava aquela cara de espanto de saber que uma máquina podia “entender” o que era dito e escrever em seguida. Hoje essa ferramenta virou brinquedo e/ou utilitário na mão de gente pelo mundo todo com a popularidade do seu uso em celulares e outros dispositivos inteligentes.

Mas é importante, antes de saber como essa maravilhosa tecnologia funciona, desfazer algumas confusões bem comuns sobre modos e tipos de reconhecimentos.

Reconhecimento de fala ou de voz?

A primeira confusão mais comum é chamar o reconhecimento de fala como reconhecimento de voz. Ora, mas não é a mesma coisa? Na verdade, em termos de tecnologia e funcionalidade, não.

Quando usa-se o termo reconhecimento de voz, se faz referência a possibilidade de uma pessoa ser reconhecida pela sua voz, mas não necessariamente que será “entendido” o que ela falou. Assim sendo, sistemas de segurança poderiam ser baseados neste tipo de aplicação, travando ou destravando portas, funcionando como senha etc.

Por outro lado, o que nos interessa aqui, é que o computador seja capaz de entender o que dizemos e escrever em seguida da forma mais rápida possível. Esta é a aplicação do reconhecimento de fala.

O tipos de reconhecimento de fala

Entendida esta diferença, temos outra que precisa ser esclarecida: a necessidade de calibragem ou não.Os sistemas mais tradicionais, como o Via Voice, da IBM, precisavam que a pessoa que quisesse ditar para ele e obter um bom índice de acertos calibrasse o software antes de iniciar o uso, lendo textos para que o aplicativo começasse a se “acostumar” com a voz daquele locutor. A partir dali, aquele operador estava apto a trabalhar. Porém era sempre necessário calibrar cada novo usuário.

Comparando com o que temos em nossos celulares, percebemos já uma grande diferença. Em nossos telefones não precisamos fazer nenhum ajuste para começar a usar, simplesmente vamos falando e ele vai escrevendo, e continua a funcionar da mesma forma até se outra pessoa falar em nosso aparelho. Esse é o segundo caso onde não há a necessidade de calibragem.

Existem diferenças técnicas entre esses dois tipos e antigamente isso tinha grandes reflexos na precisão do texto final. Atualmente, com a grande evolução da Inteligência Artificial, o reconhecimento de fala sem calibragem chegou em níveis muito interessantes. Por isso, vamos tentar entender de forma genérica como funciona a parte da transcrição, independente de ser calibrada, de forma que, em artigos futuros, possamos discutir as soluções de mercado mais usadas no país, comparando seus recursos, vantagens, desvantagens e aplicabilidades.

De forma bem simplificada, o que acontece entre o som da fala e a escrita pode ser dividido em 3 etapas. Na primeira, o som do que é dito precisa ser convertido de alguma forma para dados de computador, para que possam ser analisados. Isso é feito através do microfone e uma placa de áudio normalmente, captando as vibrações da fala (as ondas sonoras) e transformando em informações digitais. Em seguida, esses dados são interpretados por um programa, que quebra a frase dita em fonemas e estuda as chances daquele som se parecer com alguma palavra que conste no sistema.Na terceira etapa, o aplicativo de reconhecimento de fala verifica qual foi a palavra com maior chance sucesso e a retorna em forma de texto. Tudo isso, claro, numa fração de segundos.

Só desta explicação, já dá para ter uma ideia que, assim como a estenotipia, o reconhecimento de fala para closed caption também terá seus erros, bem como seus atrasos (delays). Vamos explorá-los na parte 2 deste artigo, quando entenderemos como funciona a operação da legenda oculta baseada em voz. Até lá siga a gente nas redes e continue nos acompanhando.

entre em contato para saber preços e informações

Closed Caption para Programas ao Vivo por Estenotipia

closed caption ao vivo por estenotipia

closed caption para programas ao vivo por estenotipia

Depois de entender quais são os recursos que os programas ao vivo e pós-produzidos podem e/ou devem utilizar, chegou a hora de entender melhor como é possível criar legendas tão rapidamente a ponto de se poder usar numa transmissão em tempo real. Temos basicamente dois tipos de tecnologias usadas para este tipo de trabalho: a estenotipia e o reconhecimento de voz. Como são técnicas bastante interessantes e  com muito a ser dito sobre elas, vamos focar este artigo na produção de closed caption para programas ao vivo por estenotipia e deixar o reconhecimento de voz para o próximo.

transcrição com estenotipia

O que é a estenotipia, afinal? É uma técnica? É uma tecnologia? As duas coisas! A grosso modo, podemos dizer que é uma bela junção de uma técnica de digitação de fonemas num teclado especial, com uma tecnologia de transcrição que é capaz de transformar códigos fonéticos em palavras usando um dicionário, ou até mais de um.

Por exemplo, este teclado, talvez uma das partes mais curiosas e interessantes para nós que usamos aqueles cheios de letras escritas, é chamado estenótipo. Diferente do que estamos acostumados, todas as teclas podem ser acionadas de uma vez formando uma palavra ou até uma frase. Quando digitamos “casa” no computador, teclamos primeiro a letra “c”, depois “a” e assim sucessivamente até escrever tudo por completo.

Com o estenótipo não, você pressiona todas as teclas de uma vez e ele escreve quando você as solta, ao contrário daquele de PC que escreve quando você aperta.

Esse modo de digitar é muito mais rápido por causa disso, com um toque apenas, o estenotipista pode escrever palavras ou frases completas. Desta forma, ele precisa de apenas 24 teclas, enquanto nós de mais de 100!

Essas 24 teclas ficam divididas entre a mão esquerda e a direita, sendo usada a primeira para digitar o início da palavra e a segunda para digitar o fim. Quando o estenotipista solta as teclas, um programa de computador busca em um dicionário qual é a palavra que corresponde àquele código digitado em forma de fonemas, pega o texto correspondente e escreve na tela. O interessante é que este dicionário pode, e deve, ser abastecido pelo usuário, de forma que o software possa encontrar a palavra quando ele digitar. Quando não encontra, o aplicativo escreve o que for mais parecido em termos de som (fonética) com o que foi teclado. Daí podem surgir erros como os que vemos, por vezes, na televisão. Um dicionário destes pode ter mais de 200 mil palavras!

E, por falar em erros, este é apenas um dos motivos por que vemos closed caption com erros nos telejornais, para falarmos do mais conhecido. Além do dicionário, a velocidade da fala também pode atrapalhar muito. Para poder ser estenotipista para televisão, é preciso atingir uma capacidade de teclar mais de 140 palavras por minuto, atingindo percentual de acerto maior que 98%. Imaginem, agora, a transmissão de um jogo de futebol onde se atingem picos de quase 300 palavras por minuto! Tem que ser muito rápido e muito preciso para manter este desempenho.

Veja a estenotipia na prática

O vídeo a seguir mostra um pouco do trabalho dos estenotipistas que fazem o registro de audiências em tribunais.

o código da estenotipia

Na imagem abaixo, vemos primeiro o estenótipo, abaixo a estenotipista e ao lado, o código que ela está digitando.

Reparem como não há nada escrito nas teclas do equipamento. Isso ocorre por dois motivos: se o estenotipista precisar olhar para teclar, ele não terá a velocidade necessária; como é possível personalizar as teclas para cada operador, é difícil imprimir uma disposição de letras que sirva para todos.

closed caption para programas ao vivo por estenotipia
closed caption para programas ao vivo por estenotipia

Acima, o código de um lado, com o equivalente traduzido pelo software de outro. Reparem como se tecla muito pouco para se escrever muita coisa.

Com isso, foi possível entender melhor uma das formas de se fazer closed caption em tempo real para programas ao vivo. No próximo artigo, vamos descobrir como o reconhecimento de voz pode ser usado para o mesmo objetivo. Siga nos acompanhando e mandando sua dúvidas e até lá!

entre em contato para saber preços e informações

Recursos do Closed Caption para Programas ao Vivo

Recursos do Closed Caption para Programas ao Vivo

Recursos do Closed Caption para Programas ao Vivo

Para entender melhor as características das legendas para surdos e ensurdecidos, é bastante comum fazer a divisão entre online e offline. Mas, como você vai ver neste artigo, os recursos do closed caption para programas ao vivo são basicamente os mesmos dos conteúdos gravados: informação de falante, nota musical, informação não literal e por aí vai.

A grande diferença está na forma como cada texto é produzido, por um motivo bastante óbvio: programas ao vivo não podem ser previamente digitados, a escrita tem que acontecer em tempo real. E esta talvez seja a característica mais interessante do closed caption para programas ao vivo. Porém a ideia hoje não é entender os métodos de transcrição, mas como a legenda oculta se comporta nestes casos e como ela se comunica com o espectador. Claro que não deixaremos de conversar sobre um tema tão instigante, mas vamos deixar um artigo (ou até mais de um) para esta explicação, pois ela merece e você também.

Modo de exibição

O que fica evidente, logo que se compara as legendas de uma transmissão ao vivo com a de um programa gravado, é o modo de exibição do texto. Quando este é escrito em tempo real, enquanto ele é “digitado” vai aparecendo em tela, fazendo os caracteres que já estavam lá “rolarem para cima”. Esta forma de mostrar o closed caption é chamada de Roll-up, enquanto a outra, que discutimos no artigo anterior, onde cada bloco que aparece apaga o anterior, é chamado de Pop-on.

 

">>" um Símbolo especial

Outra característica deste tipo de closed caption é o uso do símbolo “>>” para apontar que houve mudança na pessoa que está falando. Mas e a identificação do falante? Depois deste sinal, ela pode ser usada, mas não é uma obrigação. Vale lembrar que estamos falando de alguém que está transcrevendo uma fala enquanto ela acontece. Nem sempre dá pra passar todas as informações, além do fato de que, muitas vezes, só de sinalizar que houve a troca do falante já é possível, pela imagem, saber quem está falando.

Podemos pensar num telejornal, por exemplo. Quando a palavra passa de um âncora para o outro, apenas usando o “>>” é possível saber até onde foi a fala de um e onde começam as palavras do outro.

 

identificando o falante

Havendo, como falamos anteriormente, a identificação do falante, ela deve vir entre colchetes, assim como no caso do offline, e como determina a ABNT. Já houve tempo, em nosso país, que a identificação era feita apenas com o nome da pessoa seguido de dois pontos, mas isso não permitia perceber tão rápido o que era identificação do personagem e o que era o seu texto de fato.

 

Posição da legenda

Você já deve ter notado até aqui que o CC ao vivo se trata daquela legenda que normalmente fica no canto inferior esquerdo da tela, onde cada nova linha que aparece “empurra” as outras para cima. Não é difícil, portanto, concluir que não teremos posicionamento variável, nem tão pouco legendas múltiplas.

A posição mais característica do closed caption em tempo real costuma ser no canto inferior esquerdo da tela, mas os sistemas de produção mais recentes permitem variações, apesar desta localização ser quase uma convenção.

Há também o caso onde ela fica um pouco mais acima da base da tela. Isso costuma ocorrer quando há algum tipo de informação naquela parte da imagem, especialmente em canais de notícia.

Atraso da legenda

Uma característica muito comentada  nesta categoria de produção de closed caption é o atraso do texto. Isto ocorre devido ao fato de ele ser escrito em tempo real. Imagine que você tem a capacidade de digitar infinitamente rápido. Só o tempo entre você escutar o que foi dito e executar a digitação, já temos um atraso na resposta. Agora imagina fazer isso usando equipamentos que ainda contam com o tempo de processamento de uma máquina. Pois é por isso que o texto sempre “chega atrasado” na tela, o que é conhecido no meio como delay. Você vai entender melhor os motivos nos artigos onde conversaremos sobre as tecnologias para transcrição rápida usadas para transmitir a legenda oculta. Enquanto isso, siga nos acompanhando, mandando suas dúvidas. Até a próxima!

entre em contato para saber preços e informações

Recursos do Closed Caption Gravado em Mídias

Recursos do Closed Caption Gravado em Mídias

Recursos do closed caption gravado em mídias

Seguindo nosso tour pelo mundo do closed caption, vamos conhecer as possibilidades que as duas modalidades básicas dessa categoria nos oferecem: a produção para programas ao vivo e a de conteúdos gravados, tradicionalmente conhecidos como online e offline. Como tem muito a ser dito sobre o assunto, aqui, vamos falar primeiro dos recursos do closed caption gravado em mídias. O próximo artigo fica dedicado aos recursos para legendagem em tempo real.

Os conteúdos gravados são aqueles que passam por pós-produção e ficam armazenados em algum tipo de mídia ou storage, normalmente filmes, séries, novelas, entre outros. Para este tipo de programa são exigidos os seguintes recursos para um bom entendimento do usuário:

Identificação do falante

Permite saber qual o personagem que está falando. Aqui, no Brasil, geralmente é o nome de quem fala colocado entre colchetes. A própria ABNT colocou na regra esta forma de usar.

Isto tem mais variações nos EUA, por exemplo, onde as caption houses (como são chamadas as empresas produtoras de closed caption lá) às vezes usam parênteses e até chaves.

Mas aqui a regra é clara! Colchetes neles!

É muito importante especialmente quando não dá para ver quem tá falando na cena, como no caso de ter um personagem de costas para a câmera.

Posição das legendas

Como no closed caption gravado há tempo para editar o material, o posicionamento das legendas se torna uma espécie de identificação do falante muito especial.

Se ela for colocada abaixo de quem fala na tela, não há a necessidade de colocar o nome entre colchetes, evitando mais texto para ser lido, tendo, desta forma, uma legenda menos cansativa para quem assiste.

Mais até do que o cansaço, é importante lembrar que a primeira língua que as pessoas com deficiência auditiva aprendem normalmente é a Língua Brasileira de Sinais, a Libras. Ou seja, o português, neste caso, é o segundo idioma desta pessoa. Você lê tão rápido em língua estrangeira quanto no seu próprio idioma? Pois é…

Portanto economizar texto ajuda também a compreender melhor e mais rápido o que está acontecendo, deixando a atenção para o que é mais importante: o programa que a pessoa quer assistir.

como informar músicas

A nota ou clave musical indica que há algum tipo de música acontecendo no programa. Mas quais são os tipos mais frequentes?

Fundo musical

Super importante para dar o tom de uma cena, marcar a vinheta de um programa, o tipo de música de fundo tem que vir com notinha antes e depois do texto, informando claramente que é um fundo musical.

Cantando

Se um personagem canta uma música, a letra vem escrita com notinha antes e depois também. Podem ter variações, como um personagem que assobia uma melodia. Neste caso o nome música pode aparecer também entre notinhas.

Outras situações

Existem várias outras situações onde se pode usar as notinhas “cercando” o texto, mas as duas que falamos são as mais frequentes. Talvez, também valha a pena falar de música em rádio ou televisão que apareçam na cena. Essas situações seguem o mesmo padrão: informação entre claves.

 

Legendas múltiplas

Quem está acostumado a ver legendas tradicionais, com função de traduzir o que é dito de um idioma para o outro, já viu usarem travessão no texto para indicar que cada linha escrita é a fala de um personagem diferente.

Mas como isto poderia ser feito no caso do closed caption, onde o ideal é que a legenda esteja posicionada abaixo de quem fala?

Para estas situações são usadas legendas múltiplas. Ou seja, o bloco de legendas é dividido em duas linhas e cada parte é posicionada de forma independente. Neste caso, não é necessário o uso dos travessões.

Pode haver um bloco com mais de duas linhas? Sim, tecnicamente ficam disponíveis até 4 linhas, e as variações que este número permite: 2 blocos de duas linhas; 1 bloco com 2 e outro com uma apenas e por aí vai. Apesar de ser uma possibilidade técnica, esta utilização não é frequente porque não é muito indicada para o bom acompanhamento das legendas ocultas. No padrão do CPL, por exemplo, o máximo permitido são uma legenda com duas e outra com uma, mas nunca blocos com 4 linhas.

Porém, o mais importante aqui é entender que as legendas múltiplas permitem informar ao mesmo tempo a fala de dois personagens mantendo o recurso do posicionamento.

informação não literal

Talvez esta seja a característica mais conhecida da produção de legenda para pessoas com deficiência auditiva: a informação de sons de um vídeo.

Tiros, explosões, chuva caindo, trovões… Todas as informações que não são faladas, e têm relevância para o conteúdo, devem ser indicadas.

No Brasil, mais uma vez, os colchetes viraram o padrão para passar este tipo de informação, constando, inclusive, nas normas da ABNT.

Reparem na primeira imagem abaixo o uso conjunto de dois recursos do closed caption gravado, a informação não literal e o posicionamento, indicando qual personagem estava assoviando.

Onomatopeias

A definição mais comum de onomatopeia é a seguinte: é a figura de linguagem que permite o uso de vocábulos para representar um som. Ela é formada a cada vez que uma palavra escrita reproduz um ruído, um barulho ou qualquer tipo de som.

No caso do closed caption, podemos dizer que ela é um tipo especial de informação não literal, onde se “escreve o som do barulho”. Neste caso, em vez de usar “[ Risos ]”, usa-se “Ha! Ha! Ha!”.

É muito útil especialmente quando se trata de programas para o público infantil, com menor domínio da língua, ajudando a entender as legendas de maneira mais fácil.

Na primeira imagem abaixo podemos ver mais uma vez como o uso conjunto dos recursos do closed caption, onomatopeia com informação não literal, ajuda no entendimento do filme.

Itálico

O itálico ajuda o espectador a entender se o personagem que falou está na cena ou não. Quando há um narrador, por exemplo, que não está interagindo com os personagens de um filme, sua fala deve vir escrita em itálico (de preferência também com informação do falante indicando que se trata de um narrador). Pode ser usado também quando um personagem está falando, mas não está na cena.

Outro uso frequente do itálico no closed caption é para indicar falas em rádio ou televisão.

Você que acompanhou até aqui, viu que são muitos os recursos e possibilidades. É importante lembrar que esta explicação é só uma introdução básica para quem está começando a caminhar pelos caminhos da legenda oculta e que as obras audiovisuais, especialmente no caso da dramaturgia, têm uma linguagem muito rica e que não há como descrever todos os usos possíveis de forma tão breve. Se você gostou e quer saber mais sobre alguma dessas características, se alguma delas não ficou muito clara, entre em contato com a gente, quem sabe não fazemos um artigo explicando melhor o ponto que você se interessou? Um grande abraço e até o próximo.

entre em contato para saber preços e informações

O que é Closed Caption? Introdução ao Closed Caption

O que é Closed Caption? Introdução ao Closed Caption

O que é closed caption?

Sabe aquela legenda que fica ligada quando você vai a alguns bares ou lugares onde tem TV, mas não dá pra escutar o som direito? É dela que estamos falando.

Se você já deu uma olhada com mais atenção para ela, percebeu que não são só as falas que aparecem no texto, mas também alguns “barulhos”, músicas, fundos musicais etc.

Isso acontece porque ela foi feita, no início, para ajudar aos surdos, que não conseguiam acompanhar os programas de televisão. Ou seja, mais que uma legenda comum, ela é especial, toda diferentona e super completa!

Para quem serve

Mas a falta de acesso ao áudio não é uma dificuldade apenas para quem é surdo. Como dissemos lá em cima, em lugares tá aquela barulheira, seja num bar, no aeroporto, clube, restaurante, onde quer que seja, ela permite que você possa acompanhar um programa, ou parte dele, que te desperte algum interesse.

Além disso, com o passar do tempo, nosso corpo muda e mostra alguns sinais da idade. Sabe aquela avozinha que vê TV “gritando”? Pois é, ela provavelmente já escutou tão bem quanto você, mas foi perdendo esta capacidade longo dos anos. Neste caso, o closed caption vai ajudá-la a ver sua novela favorita sem que os vizinhos tenham que ouvir junto.

Desta forma, hoje em dia, não dá mais pra falar em “legenda especial para surdo-mudo”, até porque surdo é quem tem perdas no aparelho auditivo e mudo no aparelho da fala (fica a dica!). A quantidade de situações e pessoas que são favorecidas pelo uso da legenda oculta, como é traduzido para o português, já são bem mais amplas do que quando foi criado.

Recursos on x off

Quem já tem contato com closed caption há mais tempo, já deve ter observado que nem todas as legendas são iguais, que elas podem variar de acordo com o tipo de programa.

Isso acontece especialmente quando comparamos a exibição de um telejornal com a de uma novela. Neste caso, a grande diferença é que o jornalismo, normalmente, acontece ao vivo, de modo que não é possível preparar todo texto com antecedência. Para permitir que a transmissões em tempo real também tivessem closed caption para não deixar as pessoas com problemas auditivos excluídas, foram usadas técnicas de transcrição rápida, que permitem um operador bem treinado a escrever praticamente na mesma velocidade em que uma pessoa fala normalmente. É claro que, por causa disso, existem alguns erros, como você vê frequentemente. Mas já tentou escrever tudo que seu chefe ou professor diz sem pedir para ele esperar ou repetir o que está dizendo? Agora imagina fazer isso e ainda colocar informações de quem está falando, se tem música tocando, se houve um espirro ou uma tosse etc.

No caso dos programas gravados, exatamente por haver um certo (certo, não muito) tempo de preparação, é obrigação de quem produz entregar um texto sem erros, embora você veja, na prática, que nem sempre é assim. Mas não é só de uma “escrita bonitona e perfeitona” que vive closed caption offline, como é chamado este tipo de produção previamente preparada. Existem alguns recursos que podem e devem ser utilizados para melhorar ainda mais a vida de quem assiste TV usando este recurso como o posicionamento das legendas. Quando elas são posicionadas embaixo do personagem que fala em tela, isso poupa a identificação do falante, economizando caracteres e tempo de leitura.

Você já deve ter visto, até aqui, que os recursos especiais disponíveis na legenda oculta são bem variados e bem específicos. Mas não ase assuste! Este é só o primeiro artigo do nosso guia. No próximo vamos conversar um pouco mais e nos aprofundar no conhecimento de cada um deles. Enquanto isso acompanhe a gente através de nosso site e nossas rede sociais.

Um abraço e até a próxima!

entre em contato para saber preços e informações