chips

Un microchip es capaz de hacer que una IA apenas gaste electricidad

En los tiempos que corren, la IA es una de las cosas que más consumen entre todas las aplicaciones que funcionan de un dispositivo. Se trata de un software que se encarga de desarrollar respuestas de manera autónoma con resultados que conoce, por lo que con una buena potencia es capaz de darte resultados en cuestión de segundos. Pero la preocupación de algunos tiene que ver con su consumo, algo que puede reducirse con las técnicas adecuadas.

Si hay algo que puede ayudar al software eso es el hardware. Ambos van de la mano a la hora de poner a funcionar un dispositivo electrónico, por lo que una mejora de uno puede beneficiar al usuario de manera exponencial. En este caso, la innovación va de la mano de un chip que ayuda a que este software de aprendizaje no consuma tanto.

La IA, una fuente de conocimiento a un consumo enorme

Como usuarios actuales de la inteligencia artificial no notamos el impacto energético que esto supone. Puedes pensar que se trata de algo nimio ya que ‘solo se trata de introducir un texto y recibir una respuesta’ pero hay un procedimiento por detrás más amplio. Cada vez que la IA recibe una sugerencia, un ordenador remoto se pone manos a la obra para generar una respuesta, una edición de video o incluso una imagen que no existe en la realidad.

Ese ordenador remoto, el cual recibe millones de preguntas al segundo necesita ponencia de hardware para solucionar todas las preguntas, y todo eso consume mucha energía para dar semejantes respuestas casi al momento. De aquí que grandes compañías como OpenAI o Google gasten más energía que en hardware, pero parece que la ayuda está en camino.

Un chip que hace más eficiente el uso de la IA

Como decimos, las buenas noticias están a la vuelta de la esquina, noticias que harán desde que grandes empresas se ahorren un buen dinero en la factura de la luz hasta que tu teléfono gaste menos energía. Un grupo de investigadores de la Universidad Northwestern han presentado su nuevo dispositivo nanoelectrónico que es capaz de reducir el consumo de la IA a casi el mínimo.

El chip funciona como una especie de memoria RAM, lo que hace que el procesamiento sea mucho más rápido en local. Según las palabras de Mark C. Hersam, el autor de este estudio, “Nuestro dispositivo es tan eficiente energéticamente que se puede implementar directamente en dispositivos electrónicos portátiles para la detección y el procesamiento de datos en tiempo real”. Esto significa que son capaces de aumentar la rapidez de los dispositivos móviles cuando se hace una pregunta, lo que aumenta la capacidad de respuesta y reduce los tiempos de esta.

Fabricación más eficiente

Lo mejor que tienen estos nuevos chips es que su fabricación les permite amoldarse a todas las máquinas que utilicen inteligencia artificial. Gracias a su construcción, que requiere muy poco espacio, puede ayudar a utilizarse como un módulo más de un dispositivo hasta el punto de ayudarlo en su sistema de procesamiento como si fuera un hardware más de su placa.

Además, esto ayudará a que los resultados de búsqueda sean más rápidos y que el aprendizaje del software inteligente sea mucho más eficiente al no necesitar el envío de datos a la nube tan grande como se hace ahora.

Total
0
Shares
Anterior
¿Cuánta energía se gasta al usar una IA?
chat gpt

¿Cuánta energía se gasta al usar una IA?

El consumo de un país entero

Siguiente
Un nuevo estudio contra la diabetes busca depender menos de la insulina
diabetes intro

Un nuevo estudio contra la diabetes busca depender menos de la insulina

¿Adiós a los pinchazos?

Te puede interesar