Las IA estan re-inventando lo que son las computadoras.

   Tres formas clave en que la inteligencia artificial está cambiando lo que significa computar.

Otoño de 2021: la temporada de calabazas, pasteles de nueces y nuevos teléfonos color melocotón. Cada año, en el momento justo, Apple, Samsung, Google y otros lanzan sus últimos lanzamientos. Estos elementos en el calendario de la tecnología del consumidor ya no inspiran la sorpresa y el asombro de aquellos primeros días embriagadores. Pero detrás de toda la ostentación del marketing, está sucediendo algo extraordinario.


La última oferta de Google, el Pixel 6, es el primer teléfono que tiene un chip separado dedicado a la inteligencia artificial que se encuentra junto a su procesador estándar. Y el chip que ejecuta el iPhone ha contenido durante los últimos años lo que Apple llama un "motor neuronal", también dedicado a la inteligencia artificial. Ambos chips se adaptan mejor a los tipos de cálculos involucrados en el entrenamiento y la ejecución de modelos de aprendizaje automático en nuestros dispositivos, como la IA que alimenta su cámara. Casi sin que nos demos cuenta, la IA se ha convertido en parte de nuestra vida cotidiana. Y está cambiando nuestra forma de pensar sobre la informática.


¿Qué significa eso? Bueno, las computadoras no han cambiado mucho en 40 o 50 años. Son más pequeños y rápidos, pero siguen siendo cajas con procesadores que ejecutan instrucciones de humanos. La IA cambia eso en al menos tres frentes: cómo se fabrican las computadoras, cómo se programan y cómo se utilizan. En última instancia, cambiará para qué sirven.


“El núcleo de la computación está cambiando de la elaboración de números a la toma de decisiones”, dice Pradeep Dubey, director del laboratorio de computación paralela de Intel. O, como dice la directora de MIT CSAIL, Daniela Rus, AI está liberando a las computadoras de sus cajas.


Más prisa menos velocidad

El primer cambio se refiere a cómo se fabrican las computadoras y los chips que las controlan. Los beneficios de la informática tradicional se produjeron a medida que las máquinas se volvían más rápidas para realizar un cálculo tras otro. Durante décadas, el mundo se benefició de las aceleraciones de los chips que vinieron con la regularidad metronómica, ya que los fabricantes de chips se mantuvieron al día con la Ley de Moore.

Pero los modelos de aprendizaje profundo que hacen que las aplicaciones de IA actuales funcionen requieren un enfoque diferente: necesitan una gran cantidad de cálculos menos precisos que se realizan al mismo tiempo. Eso significa que se requiere un nuevo tipo de chip: uno que pueda mover datos lo más rápido posible, asegurándose de que estén disponibles cuando y donde se necesiten. Cuando el aprendizaje irrumpió en escena hace aproximadamente una década, ya había chips de computadora especializados disponibles que eran bastante buenos en esto: unidades de procesamiento de gráficos o GPU, que fueron diseñados para mostrar una pantalla completa de píxeles docenas de veces por segundo.


Fuente: https://www.technologyreview.com/2021/10/22/1037179/ai-reinventing-computers/




Comentarios

Entradas populares de este blog

Crea modelos de Deep Learning con Teachable Machine

Inteligencia Artificial: ¿ Cómo hacer un programa de clasificación de imágenes ?

¡¡¡ Estudiante Autónoma, realiza propuesta de Arte Generativo Usando Redes Neuronales Convolucionales y Redes Generativas Adversas !!!