Inteligencia Artificial (IA): Qué es, Tipos y Aplicaciones
¿Qué es la IA?
La inteligencia artificial, o IA, es una tecnología que permite a las computadoras y máquinas simular la inteligencia humana y las capacidades de resolución de problemas.
Ya sea por sí sola o combinada con otras tecnologías (por ejemplo, sensores, geolocalización, robótica), la IA puede realizar tareas que de otro modo requerirían inteligencia o intervención humana. Los asistentes digitales, la geolocalización por GPS, los vehículos autónomos y las herramientas de IA generativa (como el ChatGPT de OpenAI) son solo algunos ejemplos de la IA en las noticias diarias y en nuestras vidas cotidianas.
Como campo de la ciencia de la computación, la inteligencia artificial engloba (y a menudo se menciona junto con) el aprendizaje automático (machine learning) y el aprendizaje profundo (deep learning). Estas disciplinas involucran el desarrollo de algoritmos de IA, modelados a partir de los procesos de toma de decisiones del cerebro humano, que pueden “aprender” a partir de los datos disponibles y realizar clasificaciones o predicciones cada vez más precisas con el tiempo.
La inteligencia artificial ha pasado por muchos ciclos de exageración, pero incluso para los escépticos, el lanzamiento de ChatGPT parece marcar un punto de inflexión. La última vez que la IA generativa ocupó un lugar tan prominente, los avances fueron en la visión por computadora (computer vision), pero ahora el salto adelante está en el procesamiento de lenguaje natural (NLP). Hoy en día, la IA generativa puede aprender y sintetizar no sólo el lenguaje humano, sino también otros tipos de datos, incluidos imágenes, videos, código de programación e incluso estructuras moleculares.
Las aplicaciones para la IA están creciendo cada día. Pero a medida que el entusiasmo por el uso de herramientas de IA en los negocios despega, las conversaciones sobre la ética de la IA y la IA responsable se vuelven críticamente importantes.
Tipos de inteligencia artificial: IA débil vs. IA fuerte
La IA débil, también conocida como IA estrecha o inteligencia artificial estrecha (ANI), es una IA entrenada y enfocada para realizar tareas específicas. La IA débil impulsa la mayoría de la IA que nos rodea hoy en día. “Estrecha” podría ser una descripción más adecuada para este tipo de IA, ya que está lejos de ser débil: permite algunas aplicaciones muy robustas, como Siri de Apple, Alexa de Amazon y vehículos autónomos.
La IA fuerte está compuesta por inteligencia artificial general (AGI) e inteligencia artificial superinteligente (ASI). AGI, o IA general, es una forma teórica de IA en la que una máquina tendría una inteligencia igual a la de los humanos; sería consciente de sí misma con una conciencia que tendría la capacidad de resolver problemas, aprender y planificar para el futuro. ASI, también conocida como superinteligencia, superaría la inteligencia y capacidad del cerebro humano. Aunque la IA fuerte sigue siendo completamente teórica sin ejemplos prácticos en uso hoy en día, eso no significa que los investigadores de IA no estén explorando también su desarrollo. Mientras tanto, los mejores ejemplos de ASI podrían ser de ciencia ficción, como HAL, el asistente informático superhumano y rebelde en 2001: Una odisea del espacio.
Aprendizaje profundo vs. aprendizaje automático
El aprendizaje automático y el aprendizaje profundo son subdisciplinas de la IA, y el aprendizaje profundo es una subdisciplina del aprendizaje automático.
Tanto los algoritmos de aprendizaje automático como los de aprendizaje profundo utilizan redes neuronales (artificial neural networks) para “aprender” a partir de grandes cantidades de datos. Estas redes neuronales son estructuras de datos modeladas a partir de los procesos de toma de decisiones del cerebro humano. Consisten en capas de nodos interconectados que extraen características de los datos y hacen predicciones sobre lo que representan los datos.
El aprendizaje automático y el aprendizaje profundo difieren en los tipos de redes neuronales que utilizan y la cantidad de intervención humana involucrada. Los algoritmos clásicos de aprendizaje automático utilizan redes neuronales con una capa de entrada (input layer), una o dos capas “ocultas” (hidden layers) y una capa de salida (output layer). Típicamente, estos algoritmos están limitados al aprendizaje supervisado (supervised learning): los datos necesitan estar estructurados o etiquetados por expertos humanos para que el algoritmo pueda extraer características de los datos.
Los algoritmos de aprendizaje profundo utilizan redes neuronales profundas (deep neural networks), compuestas por una capa de entrada, tres o más (pero generalmente cientos) de capas ocultas, y una capa de salida . Estas múltiples capas permiten el aprendizaje no supervisado (unsupervised learning): automatizan la extracción de características (features) de grandes conjuntos de datos no etiquetados y no estructurados. Debido a que no requiere intervención humana, el aprendizaje profundo permite esencialmente el aprendizaje automático a gran escala.
El auge de los modelos generativos
La IA generativa (generativa AI) se refiere a los modelos de aprendizaje profundo que pueden tomar datos en bruto, digamos, toda la Wikipedia o las obras completas de Rembrandt, y “aprender” a generar salidas estadísticamente probables cuando se les solicita. A un nivel alto, los modelos generativos codifican una representación simplificada de sus datos de entrenamiento y se basan en ella para crear una nueva obra que es similar, pero no idéntica, a los datos originales.
Los modelos generativos se han utilizado durante años en estadísticas para analizar datos numéricos. Sin embargo, el auge del aprendizaje profundo ha hecho posible extenderlos a imágenes, habla y otros tipos de datos complejos. Entre la primera clase de modelos de IA que lograron este cruce estaban los autoencoders variacionales, o VAEs, introducidos en 2013. Los VAEs fueron los primeros modelos de aprendizaje profundo ampliamente utilizados para generar imágenes y textos realistas.
Ejemplos tempranos de modelos, incluidos GPT-3, BERT o DALL-E 2, han mostrado lo que es posible. En el futuro, los modelos serán entrenados en un amplio conjunto de datos no etiquetados que se pueden usar para diferentes tareas, con un ajuste fino mínimo. Los sistemas que ejecutan tareas específicas en un solo dominio están dando paso a sistemas de IA más amplios que aprenden de manera más general y trabajan en diferentes dominios y problemas. Los modelos base (foundation models), entrenados en grandes conjuntos de datos no etiquetados y ajustados para una serie de aplicaciones, están impulsando este cambio.
En cuanto al futuro de la IA, en lo que respecta a la IA generativa, se predice que los modelos base acelerarán drásticamente la adopción de IA en las empresas. Reducir los requisitos de etiquetado hará que sea mucho más fácil para las empresas sumergirse, y la automatización impulsada por IA altamente precisa y eficiente que habilitan significará que muchas más empresas podrán desplegar la IA en una gama más amplia de situaciones críticas para la misión. La esperanza es que la potencia informática de los modelos base pueda eventualmente llevarse a cada empresa en un entorno de nube híbrida sin fricciones.
Aplicaciones de inteligencia artificial
Hoy en día, hay numerosas aplicaciones del mundo real para los sistemas de IA. A continuación, se presentan algunos de los casos de uso más comunes:
Reconocimiento de voz
También conocido como reconocimiento automático de voz (ASR), reconocimiento de voz por computadora o voz a texto (speech to text), el reconocimiento de voz utiliza NLP para procesar el habla humana en un formato escrito. Muchos dispositivos móviles incorporan el reconocimiento de voz en sus sistemas para realizar búsquedas por voz, por ejemplo, Siri, o proporcionar más accesibilidad en torno a la mensajería de texto en inglés o en muchos idiomas de uso común.
Servicio al cliente
Los agentes virtuales en línea y los chatbots están reemplazando a los agentes humanos el los procesos de servicio al cliente. Responden preguntas frecuentes (FAQ) sobre temas como envíos o proporcionan asesoramiento personalizado, vendiendo productos adicionales o sugiriendo tamaños para los usuarios, cambiando la forma en que pensamos sobre el compromiso del cliente en sitios web y plataformas de redes sociales. Ejemplos incluyen bots de mensajería en sitios de comercio electrónico con agentes virtuales, aplicaciones de mensajería, como Slack y Facebook Messenger, y tareas generalmente realizadas por asistentes virtuales y asistentes de voz.
Visión por computadora
Esta tecnología de IA permite a las computadoras y sistemas derivar información significativa de imágenes digitales, videos y otras entradas visuales, y basándose en esas entradas, puede tomar decisiones. Esta capacidad de proporcionar recomendaciones lo distingue de las tareas de reconocimiento de imágenes. Impulsada por redes neuronales convolucionales, la visión por computadora tiene aplicaciones dentro del etiquetado de fotos en redes sociales, imágenes de radiología en atención médica y coches autónomos en la industria automotriz.
Cadena de suministro
La robótica adaptativa actúa sobre la información de los dispositivos de Internet de las Cosas (IoT) y datos estructurados y no estructurados para tomar decisiones autónomas. Las herramientas de NLP pueden entender el habla humana y reaccionar a lo que se les dice. Se aplican análisis predictivos a la capacidad de respuesta a la demanda, la optimización del inventario y la red de suministro, el mantenimiento preventivo y la fabricación digital. Los algoritmos de búsqueda y reconocimiento de patrones, que ya no son sólo predictivos, sino jerárquicos, analizan datos en tiempo real, ayudando a las cadenas de suministro a reaccionar a la inteligencia aumentada generada por máquinas, al tiempo que proporcionan visibilidad y transparencia instantáneas.
Detección de anomalías
Los modelos de IA pueden analizar grandes cantidades de datos y descubrir puntos de datos atípicos dentro de un conjunto de datos. Estas anomalías pueden aumentar la detección de productos defectuosos, errores humanos o violaciones de seguridad.
Historia de la inteligencia artificial: fechas y nombres clave
La idea de “una máquina que piensa” se remonta a la antigua Grecia. Pero desde la llegada de la computación electrónica (y en relación con algunos de los temas discutidos en este artículo), los eventos y hitos importantes en la evolución de la inteligencia artificial incluyen lo siguiente:
- 1950: Alan Turing publica “Computing Machinery and Intelligence”. En este documento, Turing, famoso por descifrar el código ENIGMA alemán durante la Segunda Guerra Mundial y a menudo llamado el “padre de la ciencia de la computación”, plantea la siguiente pregunta: “¿Pueden pensar las máquinas?” Desde allí, ofrece una prueba, ahora famosa como el “Test de Turing”, donde un interrogador humano intentaría distinguir entre una respuesta de texto de una computadora y un humano. Aunque esta prueba ha sido objeto de mucha crítica desde su publicación, sigue siendo una parte importante de la historia de la IA, así como un concepto en curso dentro de la filosofía, ya que utiliza ideas sobre lingüística.
- 1956: John McCarthy acuña el término “inteligencia artificial” en la primera conferencia de IA en el Dartmouth College. (McCarthy inventaría más tarde el lenguaje Lisp.) Más tarde ese año, Allen Newell, J.C. Shaw y Herbert Simon crean el Logic Theorist, el primer programa de software de IA en funcionamiento.
- 1967: Frank Rosenblatt construye el Mark 1 Perceptron, el primer ordenador basado en una red neuronal que “aprendió” mediante ensayo y error. Solo un año después, Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se convierte tanto en la obra fundamental sobre redes neuronales y, al menos por un tiempo, en un argumento en contra de futuros proyectos de investigación en redes neuronales.
- Década de 1980: Las redes neuronales que utilizan un algoritmo de retropropagación (backpropagation) para entrenarse se vuelven ampliamente utilizadas en aplicaciones de IA.
- 1995: Stuart Russell y Peter Norvig publican “Artificial Intelligence: A Modern Approach”, que se convierte en uno de los libros de texto líderes en el estudio de la IA. En él, se adentran en cuatro posibles objetivos o definiciones de IA, que diferencian a los sistemas informáticos en función de la racionalidad y el pensamiento frente a la acción.
- 1997: Deep Blue de IBM vence al entonces campeón mundial de ajedrez Garry Kasparov, en un partido de ajedrez.
- 2004: John McCarthy escribe un artículo, “What Is Artificial Intelligence?”, y propone una definición de IA a menudo citada.
- 2011: IBM Watson vence a los campeones Ken Jennings y Brad Rutter en Jeopardy!
- 2015: El supercomputador Minwa de Baidu utiliza un tipo especial de red neuronal profunda llamada red neuronal convolucional para identificar y categorizar imágenes con una tasa de precisión mayor que la del humano promedio.
- 2016: El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda, vence a Lee Sodol, el campeón mundial de Go, en un partido de cinco juegos. La victoria es significativa dada la enorme cantidad de movimientos posibles a medida que avanza el juego (más de 14.5 billones después de solo cuatro movimientos). Más tarde, Google compra DeepMind por un monto reportado de 400 millones de USD.
- 2023: Comienza el auge de los modelos de lenguaje de gran escala, o LLMs, como ChatGPT, este crea un cambio enorme en el rendimiento de la IA y su potencial para impulsar el valor empresarial. Con estas nuevas prácticas de IA generativa, los modelos de aprendizaje profundo pueden ser preentrenados en vastas cantidades de datos en bruto no etiquetados.
Conclusión
Los avances y futuros desarrollos en inteligencia artificial están gestando un cambio de paradigma sin precedentes en las operaciones digitales de los negocios. La incorporación de modelos de IA generativa y aprendizaje profundo no solo optimiza procesos y reduce costos, sino que también permite a las empresas adaptarse con agilidad a las demandas cambiantes del mercado y personalizar experiencias de usuario a un nivel antes inimaginable.
A medida que estos modelos se vuelven más accesibles y eficientes, las compañías que adopten estas tecnologías podrán disfrutar de una ventaja competitiva significativa, ofreciendo servicios más inteligentes y proactivos. El futuro de la IA en los negocios promete no solo una transformación de las operaciones internas, sino también la redefinición de la interacción entre empresas y consumidores, marcando el inicio de una nueva era en la estrategia corporativa.