La “IA” lo cambia TODO | Lo que deberías saber sobre la Inteligencia Artificial


Evolución de los procesadores CPUs y GPUs:

Inicialmente había circuitos eléctricos sencillos que realizaban tareas sencillas gracias a las puertas lógicas de sus circuitos, posteriormente surgieron los circuitos programables que permitían realizar tareas mucho más complejas y actualmente han surgido las redes neuronales, un software que puede aprender a realizar tareas sin que le expliquemos como hacerlas.

Pese a llamarse redes neuronales cada una esas “neuronas” son partes de un programa y las redes neuronales no dejan de ser un software que se puede ejecutar en cualquier ordenador, en procesadores de uso general “CPUs”.

En los años 80 con la llegada de los gráficos 3D en videojuegos los procesadores “CPU” se quedaron obsoletos y se inventaron GPUs, procesadores diseñados para realizar una única tarea rasterizar, representar escenas tridimensionales en pixeles, proceso que requiere realizar cálculos que, aunque son simples son numerosos.

Migración de las GPUs a la IA:

A diferencia de las CPUs las GPUs se centran en tener un montón de nucleos pequeños menos potentes, pero más numerosos, mientras que un procesador actual puede tener entre 32 y 64 una gráfica como la RTX4090 tiene 16384 nucleos.

La CPU está pensada para la ejecución secuencial de tareas, la mayoría de los programas funcionan de esta forma, aunque puede dividirse para realizar varias tareas simultáneamente no llega al nivel de la GPU.

Esta capacidad de las GPUs las hace realmente útiles para cálculos matemáticos que se puedan paralelizar, es decir dividir en problemas más pequeños que se pueden ejecutar a la vez resolviéndolos más rápido, ej; simulaciones financieras, estadísticas o científicas altamente paralelizables.

Como las GPUs inicialmente estaban hechas para representar los cálculos como gráficos en pantalla y no para ser usada como una calculadora, por ello Nvidia desarrolló un sistema llamado CUDA para poder utilizarlas de esta forma, sistema abrió nuevas posibilidades y cambio el enfoque de uso para aprovechar este nuevo tipo de procesadores que funcionan de forma simultánea y no secuencial.

Nvidia en el sector de la IA: 5/2024

Lar redes neuronales encajan perfectamente con las GPUs lo que hizo que empresas como Nvidia dejasen el mercado de los videojuegos para centrarse en la inteligencia artificial, desarrollando principalmente hardware y software para IA, lo que la ha hecho alcanzar su momento más alto en bolsa, otras empresas como Google, Tesla, Intel o AMD también han empezado a desarrollas sus propios procesadores para IA,

Una de las principales ventajas actuales de Nvidia en el sector es su estrecha relación con TSMC empresa encargada de la fabricación de los chips ya que la mayoría de las empresas se encargan únicamente del diseño de los chips y delegan la fabricación en otras empresas.

Poco a poco la mejora de los chips está llegando a sus límites físicos por lo que cada vez el sector avanza más despacio y es posible que otras empresas lleguen a alcanzar a Nvidia o incluso mejorar su producto.

Big data:

Con el nacimiento de internet y las redes sociales las empresas empezaron a recopilar datos de los usuarios, hasta el punto en el que se dio la situación en la debido al volumen y número de conexiones entre datos, con la tecnologia de la época eran incapaces de lidiar con estos datos, por lo que se empezaron desarrollar nuevos tipos de bases de datos, arquitecturas de software y técnicas de análisis de datos, dando lugar al Big data/Macrodatos.

Uno de los usos que se dio a estos macrodatos fue el de entrenar redes neuronales, ej; entrenar una red neuronal con datos de usuarios de redes sociales para analizar su comportamiento optimizando el contenido de la app de forma individual para cada usuario, dando lugar a los algoritmos, en los que la red neuronal gestiona los contenidos y ni si quiera los desarrolladores conocen exactamente los criterios utilizados.

Transformer:

Empresas tecnológicas que no necesariamente están en las redes sociales como Google también poseen una cantidad de datos inmensa y utilizan IAs para funciones como buscadores webs, traductores, algoritmos de publicidad, por ello empezaron a apoyar y financiar a investigadores.

Uno de estos avances financiados por Google fueron los Transformer, modelos de aprendizaje basados en redes neuronales capaces procesar frases y entender el contexto entrenados con millones de textos de internet.

La startup detrás de este avance fue Open AI responsable de Chat GPT, esta tecnologia es la base de Chat GPT y modelos similares como Llama, Gemini o Cloud capaz de interactuar con el humano mediante lenguaje natural.

Difusion:

modelos que aprender a construir imágenes reconocibles a partir de ruido, el entrenamiento de este modelo se basa en proveer imágenes al modelo las cuales va destruyendo paso a paso hasta que únicamente quede ruido para luego tratar de reconstruirlas en base ruido hasta acabar con la imagen original aprendiendo el proceso mas optimo para luego crear imágenes desde cero en base a ruido asociando imágenes a textos

IAs generativas:

Son aquellos modelos de IAs capaces de generar nueva información como imágenes, textos, sonidos… basadas principalmente en los Transformers y los modelos de difusión (usados para la generación de imágenes).

Actualmente estas tecnologías todavía no han explorado todas las posibilidades de aplicaciones y por el momento experimentan algunos errores como alucinaciones (Cuando una IA genera un resultado inesperado), esto sucede ya que las redes neuronales son imperfectas y se basan en aproximaciones y estadística.

Ante el problema de las alucinaciones van surgiendo soluciones como los RAG, sistemas que permiten ofrecer información exacta de una fuente de datos fiable al modelo de lenguaje, permitiendo alimentar un modelo con toda la información de una empresa como normas, información clave sobre el personal, operaciones, oficinas y ayude a los empleados a resolver dudas o solucionar el trabajo.

Otro uso posible de estos modelos son los Agentes; sistemas de software autónomos que pueden percibir su entorno, tomar decisiones y realizar acciones para alcanzar objetivos específicos, que a diferencia de un chatbot que únicamente responde a las entradas del usuario los agentes pueden tomar decisiones de forma autónoma. Seria permitir que ese modelo que un modelo capaz de interactuar mediante lenguaje natural tenga control de otros ámbitos como reservas de hotel, alarmas inteligentes, notificaciones de mensajes, todo bajo unos criterios previamente definidos.

También está la posibilidad de usarlas como reemplazo a los buscadores convencionales evitando los problemas actuales de estos como el SEO, publicidad y la reduciendo el tiempo hasta encontrar la información deseada

Debates:

Al contrario que un software programado por humanos todos los casos posibles han sido previstos y programados mientras que los resultados de una IA son impredecibles pudiendo dar lugar a fallos de seguridad, posibles filtraciones de información, jail breaks, sesgos…

También se cuestiona si es ético el uso de determinados datos para entrenar estos modelos que al fin y al cabo son productos.

Debido al interés de los inversores de estas empresas se prioriza la maximización de beneficios evitando la experimentación y viéndose extremadamente perjudicadas al verse afectadas la imagen de la empresa lo que puede ser un problema en épocas de innovación y estancando la industria.

Debido a que es una tecnologia emergente queda mucho por regular y por ello muchas empresas reservan la publicación de proyectos hasta que se conozcan las regulaciones y se estabilice el mercado

Debido al potencial que tiene de reemplazar determinados sectores laborales existe miedo ante esta posibilidad y los cambios que traerá

El potencial que tienen estas herramientas para generar contenido para utilizarse de forma ilícita como deepfakes.

Chat GPT, Sora, Llama, Deepseek, Gemini, Cloud, Dall-e, Midjourney, Stable diffusion, ComfyUI, Perplexity, Runway, flux