Investigadores han ayudado a una mujer paralizada por un derrame cerebral en el tronco cerebral a hablar a través de un avatar digital, gracias a un implante cerebral y a algoritmos de inteligencia artificial que analizan sus ondas cerebrales y las traducen en habla y movimientos simulados.

La paciente, identificada como «Ann», puede mover los músculos faciales pero no puede hablar.

Científicos de la computación entrenaron una red neuronal recurrente para mapear las señales cerebrales de Ann en 39 fonemas diferentes, que son las unidades de sonido que ensamblamos en palabras cuando hablamos. Las ondas cerebrales de Ann se midieron utilizando una interfaz cerebro-computadora. Después del entrenamiento, el modelo aprendió a descifrar sus pensamientos en fonemas, que luego fueron pronunciados por un avatar digital en pantalla.

Puedes ver cómo funciona en el video a continuación.

La tecnología fue desarrollada por un equipo de científicos de la computación de la Universidad de California, San Francisco, y la Universidad de California, Berkeley, quienes esperan que conduzca a la creación de un dispositivo aprobado por reguladores que ayudará a las personas paralizadas a expresarse.

Ann puede hablar a través de su avatar digital a una velocidad de 62 palabras por minuto, aproximadamente el 40 por ciento de la velocidad del habla típica, con una tasa de error de palabras del 23.8 por ciento en el vocabulario de 125,000 palabras del sistema. Los detalles de la investigación se han publicado en un artículo en la revista Nature.

«Cuando estaba en el hospital de rehabilitación, el terapeuta del habla no sabía qué hacer conmigo», dijo Ann. «Ser parte de este estudio me ha dado un sentido de propósito. Siento que estoy contribuyendo a la sociedad. Se siente como si tuviera un trabajo de nuevo. Es asombroso que haya vivido tanto tiempo; este estudio me ha permitido realmente vivir mientras todavía estoy viva».

Google hace un trato para crear música generada por IA Los derechos de autor son un gran problema que enfrentan los servicios de inteligencia artificial generativa, con desarrolladores criticados y demandados por recopilar grandes cantidades de material extraído de internet para entrenar modelos de lenguaje grandes sin pedir permiso ni ofrecer compensación. Ahora, editores y escritores están tratando de defenderse contra el uso de su trabajo por la IA sin dar crédito ni compensación.

Sin embargo, la música es una industria mucho más regulada. Las compañías discográficas protegen los derechos de las canciones y son conocidas por ser litigiosas. Si alguien quiere entrenar modelos en música popular para crear jingles generados por IA de mejor calidad, será difícil evitar el pago de regalías.

Por lo tanto, la unidad de negocios de Google, YouTube, se ha asociado con Universal Music Group para desarrollar inteligencia artificial generadora de música de manera responsable.

«Juntos, podemos adoptar esta nueva tecnología de una manera que respalde a los artistas, compositores, productores y la industria en su conjunto, al tiempo que genera valor para los fanáticos y amplía los límites de lo que es creativamente posible», declaró YouTube en una publicación en su blog.

Google no parece tomar la misma precaución o enfoque medido cuando se trata de texto, sin embargo. El mes pasado, actualizó su política de privacidad afirmando que utiliza «información de dominio público para ayudar a entrenar los modelos de IA de Google y construir productos y funciones como Google Translate, Bard y capacidades de IA en la nube».

Neuralink dice que EE. UU. aprueba experimentos humanos con los chips cerebrales de Elon Un hombre paralizado desde el cuello hacia abajo utiliza implantes cerebrales de IA para escribir mensajes de texto ¿Tocar instrumentos, talento musical? Ja, esto es la década de 2020, Meta tiene modelos para eso ahora Si vas a entrenar la IA con nuestros libros, al menos páganos, dicen los autores a las grandes tecnológicas Los medios de comunicación están bloqueando el rastreador de texto de OpenAI Los principales editores como CNN, Reuters, el Chicago Tribune y otros más han bloqueado el rastreador de texto GPTBot de OpenAI para que no recopile texto de sus páginas web.

OpenAI utiliza un robot rastreador para recopilar datos de internet público y entrenar sus grandes modelos de lenguaje. Pero algunos editores de noticias, incluyendo la Australian Broadcasting Corporation y los periódicos Canberra Times y Newcastle Herald, han realizado cambios en el archivo robot.txt de sus sitios web para evitar que los robots rastreadores accedan a su contenido, según informó The Guardian.

Al bloquear el rastreador GPTBot, los editores pueden evitar que OpenAI recopile texto sin permiso. La startup recientemente ha enfrentado críticas de autores por entrenar sus modelos con sus libros.

Ahora, los medios de comunicación también están empezando a contraatacar. El New York Times también actualizó recientemente sus términos de servicio afirmando que su contenido no puede ser recopilado para entrenar modelos de IA sin el consentimiento explícito por escrito.

El mes pasado, OpenAI anunció que había llegado a un acuerdo de licencia con Associated Press para utilizar sus archivos que datan de 1985. Los artículos de noticias son importantes para desarrollar un modelo que tenga conocimientos actualizados, y en el futuro OpenAI podría encontrar la necesidad de pagar a los editores para acceder a su contenido si más de ellos bloquean el GPTBot.

Fuente:

Berkeley

Únete a la comunidad

Más de 16.000 personas se han unido a nuestra newsletter. Prometemos enviarte sólo cosas interesantes.

Gracias por suscribirte.

Share This