A Sign-Speak nasceu com a missão de eliminar as barreiras de comunicação para pessoas surdas e com deficiência auditiva. Ao combinar acessibilidade e tecnologia, a startup desenvolve soluções que facilitam a interação entre essa população e os ouvintes, promovendo uma comunicação livre e autônoma.
A empresa foi idealizada em 2017, quando os fundadores Yami Payano (CEO), Nikolas Kelly (CPO) e Nicholas Wilkins (CTO) ainda estavam na universidade. A startup foi oficialmente lançada quatro anos depois, com sede em Nova York, a partir das experiências compartilhadas entre o trio, que trazia vivências pessoais com a comunidade surda.
O carro-chefe da Sign-Speak é uma API baseada em inteligência artificial que combina reconhecimento de voz e língua de sinais americana (ASL). A ferramenta facilita a comunicação entre pessoas surdas e ouvintes, traduzindo bidirecionalmente entre ASL e o inglês falado. Na prática, ela converte em áudio o que o indivíduo surdo expressa em ASL e transforma o diálogo de ouvintes em língua de sinais, tudo em tempo real.
Durante minha entrevista com a equipe da Sign-Speak no re:Invent 2024, acompanhei demonstrações ao vivo da solução. Enquanto eu fazia perguntas aos fundadores, um avatar na tela traduzia em ASL tudo o que era dito para Nikolas, que é surdo. O processo inverso também funcionava: quando Nikolas respondia em língua de sinais, a plataforma interpretava os gestos e gerava uma tradução em áudio para mim.
“A surdez é uma deficiência oculta. É comum ouvir pessoas dizendo que não veem pessoas surdas ao seu redor, mas isso não significa que elas não estejam lá; talvez estejam desconfortáveis no ambiente e não estejam utilizando os sinais. Muitas vezes, tentar se comunicar com uma pessoa ouvinte é uma experiência frustrante. Ela não entende o que eu digo, tento expressar de outra forma, simplificando com as mãos ou até escrevendo. Mas esse método não funciona para pessoas surdas menos alfabetizadas, o que gera ainda mais confusão na comunicação”, destaca Nikolas.
A Sign-Speak atraiu a aceleradora global Techstars e a Amazon Web Services (AWS), que selecionou a startup para participar do AWS Impact Accelerator Latino Cohort (Yami vive nos Estados Unidos, mas nasceu na República Dominicana). Desde 2021, a Sign-Speak captou um total de US$ 2,7 milhões, sendo US$ 2 milhões somente em 2024.
Modelo de negócio
A Sign-Speak é centrada no modelo B2B, oferecendo soluções para empresas que buscam melhorar a acessibilidade de seus ambientes e produtos. “Nossa tese é que a acessibilidade deve ser gratuita para o usuário final. Por isso, estamos estudando como fornecer o serviço gratuitamente para o consumidor e comercializá-lo para as empresas que desejam ser mais inclusivas com seus clientes e funcionários”, pontua Yami.
A CEO destaca que construir produtos com acessibilidade em mente beneficia não apenas as pessoas com deficiência, mas também uma grande variedade de outros usuários. “As rampas para cadeirantes, por exemplo, também são usadas por pessoas idosas e mulheres grávidas. As legendas em vídeo são utilizadas por mais da metade dos norte-americanos, independentemente de serem surdos ou não. Um produto acessível não é utilizado apenas por pessoas com deficiência; ele impacta milhares de pessoas”, afirma.
“Uma empresa sem acessibilidade está deixando dinheiro na mesa, pois estamos falando de ações em um contexto que abrange bilhões de pessoas. Além de perder dinheiro, também está deixando de incluir talentos qualificados e uma força de trabalho valiosa para suas operações. À medida que os seres humanos vivem mais, a acessibilidade será um dos maiores desafios que a sociedade terá que superar”, observa.
Desafios de inovação
“Conseguimos converter a língua de sinais em áudio para que os ouvintes entendessem o que a pessoa surda estava dizendo. Mas ainda faltava o processo inverso, traduzindo o inglês falado para a língua de sinais”, conta Yami. Foi então que surgiu a ideia do avatar e da tecnologia bidirecional, proporcionando uma interação mais eficiente ao traduzir a voz em sinais e os sinais em fala.
O avatar na tela é gerado por inteligência artificial. Segundo Yami, os fundadores dedicaram anos no desenvolvimento de um avatar que reproduzisse de maneira realista e natural as expressões e movimentos humanos, garantindo uma interação mais autêntica e eficaz.
A CEO acrescenta que um dos principais desafios de comunicação é o fato de a língua de sinais não ser uma tradução literal do inglês, português ou qualquer outro idioma. “A língua de sinais possui uma estrutura gramatical própria e inclui, além da sinalização com as mãos, expressões faciais e outras características específicas”, pontua.
Nesse contexto, a Sign-Speak criou o ASL GPT, ferramenta capaz de responder perguntas em língua de sinais americana e auxiliar na escrita e edição de textos em inglês. Outra ferramenta é o CaptionASL, que interpreta a língua de sinais utilizada em vídeos e adiciona legendas automaticamente para que pessoas ouvintes acompanhem o conteúdo com facilidade.
Outro desafio enfrentado pela startup tem a ver com a conexão da rede local. “Como estamos conectados à nuvem, a plataforma depende muito do Wi-Fi. Se a conexão da rede cai, sofremos uma certa latência. Esse é um problema que precisamos resolver”, reconhece Yami.
O futuro da Sign-Speak
Atualmente, a Sign-Speak está focada em fortalecer seu impacto e sua atuação nos Estados Unidos. “Começamos pela língua de sinais americana pois ela é falada em cerca de 20 países”, explica a CEO. No entanto, o desejo é eventualmente expandir para outras regiões. A expectativa é, com o tempo, aprender outras línguas de sinais ao redor do mundo, pois a falta de infraestrutura e acessibilidade para pessoas surdas é um problema global.”
Yami acrescenta que a ideia não é substituir os intérpretes humanos, mas sim trabalhar ao lado deles, unindo forças para promover maior acessibilidade para deficientes auditivos em todo o mundo. “Os países precisam estruturar programas de interpretação de língua de sinais, permitindo que as pessoas passem pelo treinamento. Uma pessoa leva em média cinco anos para se especializar na tradução e interpretação de libras – não é apenas um investimento financeiro, mas também de tempo e recursos”, analisa.
A proposta da Sign-Speak é ser uma alternativa acessível, funcionando em paralelo ao desenvolvimento dos sistemas tradicionais de educação e interpretação. “De forma geral, o objetivo da Sign-Speak é democratizar a língua de sinais para que possam oferecer mais oportunidades para pessoas surdas e com deficiência auditiva. Seja no trabalho, no aeroporto ou no dia a dia, queremos transformar essas experiências”, destaca Yami.
Para 2025, a prioridade é disponibilizar o produto para o público geral. A empresa tem presença confirmada no CES 2025, evento de tecnologia que acontece anualmente em Las Vegas, onde pretende revelar o nome de alguns de seus parceiros estratégicos. “Passamos o último ano trabalhando com muitas empresas da Fortune 500 para integrar nossas tecnologias, por exemplo, em produtos no setor financeiro, para que as pessoas surdas possam entrar em um banco, sinalizar e obter as informações de que precisam”, afirma a CEO.
No entanto, Yami não quer que a primeira experiência das pessoas surdas com a Sign-Speak seja dentro do banco. “Idealmente, esperamos que eles possam interagir com a tecnologia em casa. Conquistar o mercado B2C é muito importante para nós. Então, a expectativa é garantir que a Sign-Speak tenha uma disponibilidade geral e que nossas soluções, como o ASL GPT e o CaptionASL, realmente envolvam a comunidade”, pontua.
Os planos da Sign-Speak também incluem oferecer mais transparência na interpretação da língua de sinais. Atualmente, o sistema utiliza o avatar de inteligência artificial, e, caso ele pare de funcionar por algum motivo, a plataforma alterna automaticamente para um intérprete humano. “Queremos dar ao consumidor final o poder de escolha, permitindo que ele opte por um intérprete humano ou um intérprete de IA, conforme sua preferência”, explica.
“Estou realmente empolgado com o que estamos fazendo e espero que ajude pessoas surdas e deficientes auditivas a receber e compreender informações em aeroportos, bancos, festas e outros ambientes onde, normalmente, temos dificuldade de entender o que está acontecendo”, conclui Nikolas.