Sign Speak, la inteligencia artificial que traduce a voz el lenguaje de signos

Sign Speak, la inteligencia artificial que traduce a voz el lenguaje de signos




Sign Speak, la inteligencia artificial que traduce a voz el lenguaje de signos

Si la inteligencia artificial puede traducir mensajes en cualquier idioma, ¿por qué no el lenguaje de los signos que ayuda a comunicarse a las personas sordas y con problemas de audición?

Sign Speak rompe definitivamente esa barrera que sufren en el mundo 430 millones de personas sordas, reduciendo así la pérdida de oportunidades laborales que sufre este colectivo, además de los problemas para relacionarse socialmente.

La propuesta es de tres jovencísimos emprendedores liderados por Yamileth Pellano, la CEO del proyecto, entre los que se encuentra Nicholas Wilkins, al mando de la tecnología, y Nicholas Kelly, el jefe de producto, que por su condición de sordomudo ha sido clave en la concepción de la idea y el desarrollo de la plataforma.  

Sign Speak: de unidireccional a bidireccional

Lo que hace especial a Sign Speak es la calidad del resultado. En el mercado existen otras herramientas que hacen de intérpretes del lenguaje de los signos, pero solo funcionan en una dirección: de señas a voz o de voz a señas. Sign Speak por el contrario traduce de forma fluida y precisa los signos de señas a lenguaje hablado y viceversa. Facilitando una conversación fluida entre dos o más personas y la persona con problemas de audición.  

Con esta tecnología este colectivo, que hasta ahora solo podían comunicarse con quienes no dominan su lenguaje por escrito o con intérpretes, cuentan ahora con una forma más de comunicación al alcance de todos.  

El lenguaje de señas estadounidense (ASL)

Un problema a la hora de diseñar este tipo de tecnología es que el lenguaje de los signos no es universal. “Hay muchos países que tienen el mismo lenguaje de señas, como Estados Unidos, Canadá, República Dominicana… y otros muchos como China, India o Reino Unido en los que son diferentes. No tiene que ver con el idioma que se habla, sino con la influencia que hayan recibido en su propagación de signos de señas en cada zona. En el mundo hay 300 lenguajes de señas. Y eso ha dificultado hacer una tecnología escalable hasta ahora», explica Yamileth Pellano, CEO de Sign Speak.

«De momento, lo hemos adaptado al lenguaje de señas estadounidense (ASL), que usan 20 países, incluidos algunos de África. Y después lo iremos adaptando poco a poco a los lenguajes de señas de otras zonas”, añade.

El proyecto nació en el Instituto de Tecnología de Rochester, ubicado en Nueva York, un instituto para personas sordas. Nicholas Kelly, su jefe de producto, “tenía muchas frustraciones pensando en las oportunidades que pudiera tener al salir de la universidad, y pensamos, si los ordenadores pudieran reconocer el lenguaje de signos como reconoce la voz… Era 2017 y los tres fundadores estábamos estudiando. En 2021 pensamos en convertirlo en negocio”, explica Yamileth Pellano.

“Al principio lo montamos pensando en el impacto que iba a tener, en la gente a la que podríamos ayudar, pero luego vimos que había una oportunidad de negocio. Hacer cosas que impacten en la gente también puede ser rentable. Solo en EEUU, la industria de intérpretes de señas mueve 10 billones de dólares al año. Si hablamos en términos de personas, en Estados Unidos hay 9 millones de sordomudos, en el mundo son 70 millones.

Y si pensamos en personas que puedan tener algún tipo de dificultad de escucha la cifra sube a más de 400 millones; 48 en EEUU”, explica la CEO del proyecto.

¿Cómo funciona Sign Speak?

La persona sordomuda se sitúa delante de un ordenador y habla en lenguaje de signos a un avatar que traduce a voz lo que el sordomudo dice, para que lo entiendan los demás. Y al revés, cuando los otros hablan traduce la voz a señas. Por el momento, el traductor solo funciona delante de un ordenador, no hay aplicación móvil porque “queremos que la persona pueda ver al avatar que hemos creado para que se comunique con signos”. Es un avatar que se puede personalizar por sexo y otras características que se adaptan a todos los públicos.

Para monetizar la tecnología sus fundadores han puesto el foco en las empresas. “Empresas que quieran disponer de intérpretes en eventos y en EEUU son muchas porque las leyes protegen a esta comunidad, pero también hospitales y otras organizaciones públicas que quieran ser más accesibles y que hoy tienen dificultades para ofrecer estos servicios porque no hay suficientes intérpretes. Apenas diez mil para 9 millones de potenciales usuarios”, explica Yamileth Pellano.  

Y añade: “Es una gran oportunidad por la escasez de profesionales y por la reducción de costes que supone para este tipo de servicios. Un intérprete aquí en los Estados Unidos cuesta entre ciento cincuenta y doscientos cincuenta dólares por hora. Un coste que no está al alcance de los negocios más pequeños. Nosotros reducimos costes de servicio y mejoramos las oportunidades del cliente sordo”.

Feedback para seguir mejorando

Por el momento, cuentan “con 1.200 usuarios que son sordos y utilizan nuestra tecnología de una manera u otra. Su feedback nos ayuda a seguir mejorando la experiencia con nuestro producto. Facturamos 65.000 dólares al mes, que procede de empresas que trabajan ya con nosotros. Y nos estamos enfocando mucho para llegar a la comunidad sorda porque ellos nos harán también de prescriptores cuando nos vayan conociendo. Ellos van a liderar el crecimiento de la tecnología. El reto ahora es llegar a millones de personas y no a miles”.

En este recorrido han contado con el apoyo de la aceleradora AWS, la aceleradora de IA de Amazon. “Nos dieron 125.000 pesos (dominicanos, unos 2.000 euros) a fondo perdido para seguir entrenando nuestro modelo y nos han dado acceso a su tecnología de forma gratuita también, además de visibilidad para conseguir apoyo de nuevos inversores”, continúa su CEO.

Es difícil recaudar fondos para tecnología como esta porque muchas personas no entienden a la comunidad, piensan que es pequeña y en realidad son muchísimos”.