Glosario de IA Términos básicos que todos los usuarios de ChatGPT deberían conocer

Glosario de IA Términos básicos para usuarios de ChatGPT

Tu primera introducción a la IA podría haber sido ChatGPT, el chatbot de IA de OpenAI que tiene una increíble capacidad para responder cualquier pregunta. Desde escribir poemas, currículums y recetas de fusión, el poder de ChatGPT se ha comparado con el autocompletado en esteroides.

Pero los chatbots de IA son solo una parte del panorama de la IA. Claro, tener a ChatGPT ayudando con tus tareas o tener a Midjourney creando imágenes fascinantes de mechs basadas en el país de origen es genial, pero su potencial podría remodelar por completo las economías. Ese potencial podría valer $4.4 billones para la economía global anualmente, según el McKinsey Global Institute, por eso debes esperar escuchar cada vez más sobre la inteligencia artificial.

A medida que las personas se acostumbran más a un mundo entrelazado con la IA, nuevos términos están apareciendo en todas partes. Así que ya sea que estés intentando parecer inteligente durante una reunión o impresionar en una entrevista de trabajo, aquí tienes algunos términos importantes de IA que debes conocer.

Este glosario se actualizará continuamente.

Inteligencia artificial general, o AGI: Un concepto que sugiere una versión más avanzada de la IA de la que conocemos hoy en día, una que puede realizar tareas mucho mejor que los humanos, mientras también enseña y mejora sus propias capacidades.

Ética de la IA: Principios destinados a prevenir que la IA cause daño a los humanos, logrados a través de medios como determinar cómo los sistemas de IA deben recopilar datos o lidiar con sesgos.

Seguridad de la IA: Un campo interdisciplinario que se preocupa por los impactos a largo plazo de la IA y cómo podría progresar repentinamente hacia una superinteligencia que podría ser hostil hacia los humanos.

Algoritmo: Una serie de instrucciones que permite a un programa de computadora aprender y analizar datos de una manera particular, como reconocer patrones, para luego aprender de ello y realizar tareas por sí mismo.

Alineación: Ajustar una IA para producir mejor el resultado deseado. Esto puede referirse a cualquier cosa, desde moderar contenido hasta mantener interacciones positivas con los humanos.

Antropomorfismo: Cuando los humanos tienden a atribuir características humanas a objetos no humanos. En IA, esto puede incluir creer que un chatbot es más parecido a un humano y más consciente de lo que realmente es, como creer que está feliz, triste o incluso completamente consciente.

Inteligencia artificial, o IA: El uso de tecnología para simular la inteligencia humana, ya sea en programas de computadora o en robótica. Un campo en la ciencia de la computación que tiene como objetivo construir sistemas que puedan realizar tareas humanas.

Sesgo: En relación con los modelos de lenguaje grandes, errores resultantes de los datos de entrenamiento. Esto puede resultar en atribuir falsamente ciertas características a ciertas razas o grupos basados en estereotipos.

Chatbot: Un programa que se comunica con los humanos a través de texto que simula el lenguaje humano.

ChatGPT: Un chatbot de IA desarrollado por OpenAI que utiliza tecnología de modelos de lenguaje grandes.

Computación cognitiva: Otro término para inteligencia artificial.

Aumento de datos: Remodelar datos existentes o agregar un conjunto de datos más diverso para entrenar una IA.

Aprendizaje profundo: Un método de IA, y un subcampo del aprendizaje automático, que utiliza múltiples parámetros para reconocer patrones complejos en imágenes, sonido y texto. El proceso está inspirado en el cerebro humano y utiliza redes neuronales artificiales para crear patrones.

Difusión: Un método de aprendizaje automático que toma un conjunto de datos existente, como una foto, y agrega ruido aleatorio. Los modelos de difusión entrenan sus redes para reingeniar o recuperar esa foto.

Comportamiento emergente: Cuando un modelo de IA muestra habilidades no intencionadas.

Aprendizaje de extremo a extremo, o E2E: Un proceso de aprendizaje profundo en el que se instruye a un modelo para realizar una tarea de principio a fin. No se entrena para realizar una tarea de manera secuencial, sino que aprende de las entradas y la resuelve de una vez.

Consideraciones éticas: Una conciencia de las implicaciones éticas de la IA y los problemas relacionados con la privacidad, el uso de datos, la equidad, el mal uso y otros problemas de seguridad.

Foom: También conocido como despegue rápido o despegue duro. El concepto de que si alguien construye una AGI, podría ser demasiado tarde para salvar a la humanidad.

Redes generativas adversarias, o GAN: Un modelo de IA generativo compuesto por dos redes neuronales para generar nuevos datos: un generador y un discriminador. El generador crea nuevo contenido y el discriminador verifica si es auténtico.

AI generativo: Una tecnología de generación de contenido que utiliza IA para crear texto, video, código de computadora o imágenes. La IA se alimenta con grandes cantidades de datos de entrenamiento, encuentra patrones para generar sus propias respuestas novedosas, que a veces pueden ser similares al material de origen.

Google Bard: Un chatbot de IA de Google que funciona de manera similar a ChatGPT pero obtiene información de la web actual, mientras que ChatGPT está limitado a datos hasta 2021 y no está conectado a internet.

Guardrails: Políticas y restricciones aplicadas a los modelos de IA para garantizar que los datos se manejen de manera responsable y que el modelo no cree contenido perturbador.

Alucinación: Una respuesta incorrecta de la IA. Puede incluir respuestas generadas por IA que son incorrectas pero se expresan con confianza como si fueran correctas. Las razones de esto no se conocen completamente. Por ejemplo, al preguntarle a un chatbot de IA “¿Cuándo pintó Leonardo da Vinci la Mona Lisa?”, puede responder con una afirmación incorrecta diciendo: “Leonardo da Vinci pintó la Mona Lisa en 1815”, que es 300 años después de que realmente fuera pintada.

Modelo de lenguaje grande, o LLM: Un modelo de IA entrenado con grandes cantidades de datos de texto para comprender el lenguaje y generar contenido novedoso en un lenguaje similar al humano.

Aprendizaje automático, o ML: Un componente de la IA que permite a las computadoras aprender y obtener mejores resultados predictivos sin programación explícita. Puede combinarse con conjuntos de entrenamiento para generar nuevo contenido.

Microsoft Bing: Un motor de búsqueda de Microsoft que ahora puede utilizar la tecnología que impulsa a ChatGPT para ofrecer resultados de búsqueda impulsados por IA. Es similar a Google Bard en el sentido de que está conectado a internet.

IA multimodal: Un tipo de IA que puede procesar múltiples tipos de entradas, incluyendo texto, imágenes, videos y voz.

Procesamiento de lenguaje natural: Una rama de la IA que utiliza aprendizaje automático y aprendizaje profundo para otorgar a las computadoras la capacidad de comprender el lenguaje humano, a menudo utilizando algoritmos de aprendizaje, modelos estadísticos y reglas lingüísticas.

Red neuronal: Un modelo computacional que se asemeja a la estructura del cerebro humano y está diseñado para reconocer patrones en los datos. Consiste en nodos interconectados, o neuronas, que pueden reconocer patrones y aprender con el tiempo.

Sobreajuste: Error en el aprendizaje automático donde funciona demasiado cerca de los datos de entrenamiento y puede identificar solo ejemplos específicos en dichos datos, pero no datos nuevos.

Parámetros: Valores numéricos que le dan estructura y comportamiento a los LLM, lo que les permite hacer predicciones.

Encadenamiento de estímulos: La capacidad de la IA para utilizar información de interacciones anteriores para influir en futuras respuestas.

Loro estocástico: Una analogía de los LLM que ilustra que el software no tiene una comprensión más amplia del significado detrás del lenguaje o del mundo que lo rodea, independientemente de lo convincente que suene la salida. La frase se refiere a cómo un loro puede imitar palabras humanas sin entender el significado detrás de ellas.

Transferencia de estilo: La capacidad de adaptar el estilo de una imagen al contenido de otra, permitiendo que una IA interprete los atributos visuales de una imagen y los utilice en otra. Por ejemplo, tomar el autorretrato de Rembrandt y recrearlo en el estilo de Picasso.

Temperatura: Parámetros establecidos para controlar qué tan aleatorio es el resultado de un modelo de lenguaje. Una temperatura más alta significa que el modelo toma más riesgos.

Generación de texto a imagen: Creación de imágenes basada en descripciones textuales.

Datos de entrenamiento: Los conjuntos de datos utilizados para ayudar a los modelos de IA a aprender, incluyendo texto, imágenes, código o datos.

Modelo Transformer: Una arquitectura de red neuronal y un modelo de aprendizaje profundo que aprende el contexto mediante el seguimiento de las relaciones en los datos, como en las oraciones o partes de las imágenes. En lugar de analizar una oración palabra por palabra, puede analizar la oración completa y comprender el contexto.

Prueba de Turing: Nombrada en honor al famoso matemático y científico de la computación Alan Turing, prueba la capacidad de una máquina para comportarse como un humano. La máquina aprueba si un humano no puede distinguir la respuesta de la máquina de la de otro humano.

IA débil, también conocida como IA estrecha: IA que se centra en una tarea específica y no puede aprender más allá de su conjunto de habilidades. La mayoría de la IA actual es IA débil.

Aprendizaje sin ejemplos: Una prueba en la que un modelo debe completar una tarea sin recibir los datos de entrenamiento necesarios. Un ejemplo sería reconocer un león mientras solo se ha entrenado con tigres.