Bienvenido a la Guía de Inteligencia Artificial de TOTVS, su fuente definitiva para comprender e implementar tecnologías de IA en su empresa. Esta guía se creó con un objetivo: capacitarlo a usted y a su empresa para explorar, adoptar y maximizar el potencial de la IA, transformando los desafíos en oportunidades de innovación.
¿Por qué esta guía es esencial para ti?
- Conocimientos prácticos: comprender los fundamentos de la IA, desde conceptos básicos hasta aplicaciones más avanzadas.
- Casos de uso reales: inspírese con ejemplos concretos de cómo se utiliza la IA en todas las industrias para resolver problemas complejos y crear valor.
- Herramientas y técnicas: conozca las herramientas y técnicas clave de IA que se pueden aplicar directamente a su entorno de trabajo.
- Estrategia e implementación: descubra los pasos prácticos para iniciar proyectos de IA, desde identificar oportunidades hasta implementar y evaluar resultados.
¿Qué encontrarás en esta guía?
- Qué es la Inteligencia Artificial y los principales tipos de IA: una introducción objetiva a qué es la IA y las diferentes categorías que la componen.
- El papel de los datos para la IA: comprender la importancia de los datos en la creación y el entrenamiento de modelos de IA.
- IA generativa, ¿el “hype” del momento? : Explore el mundo de la IA generativa, sus componentes clave y sus aplicaciones más interesantes.
- Principales casos de uso de la IA generativa: descubra cómo diferentes industrias utilizan la IA generativa para transformar sus negocios.
- ¿Cómo tratamos/priorizamos el tema de datos e IA en TOTVS? : Conozca el enfoque de TOTVS para integrar la inteligencia artificial y los datos en su estrategia comercial.
- 5 pasos para iniciar un proyecto de IA en tu empresa: una guía paso a paso para iniciar tu viaje con la IA, desde la concepción hasta la escala.
- Glosario: Familiarízate con los términos y conceptos más importantes del mundo de la IA.
Bienvenidos a una nueva era de posibilidades con la Inteligencia Artificial. ¡Empecemos!
1. QUÉ ES LA INTELIGENCIA ARTIFICIAL Y LOS PRINCIPALES TIPOS DE IA
La Inteligencia Artificial (IA) es un campo de la informática dedicado a la creación de sistemas que puedan realizar tareas que normalmente requieren esfuerzo humano. Esto incluye habilidades como el razonamiento, el aprendizaje, la percepción del entorno e incluso la manipulación de objetos.
Los avances en IA permiten que las máquinas aprendan de las experiencias, se ajusten a nuevas entradas de datos y realicen tareas humanas de manera eficiente. De hecho, existen diferentes formas aceptadas de agrupar y clasificar tipos conocidos de Inteligencia Artificial. Pero brevemente, podemos enumerar los siguientes tipos de IA existentes:
- Machine Learning (Machine Learning o Deep Learning): es un campo de la IA que se centra en interpretar y realizar predicciones o clasificaciones basadas en datos a través de algoritmos capaces de aprender de los datos y realizar predicciones o decisiones basadas en esos datos. La idea central es desarrollar modelos que puedan mejorar su rendimiento con el tiempo sin intervención humana directa en la programación de tareas específicas. El aprendizaje profundo puede entenderse como una subcategoría del aprendizaje automático, que utiliza redes neuronales profundas (con muchas capas de procesamiento) para modelar y resolver problemas complejos, como el reconocimiento de voz o el análisis de imágenes.
- Visión por computadora: es un campo de la Inteligencia Artificial que implica el desarrollo de técnicas y algoritmos que permiten a las computadoras interpretar y comprender el contenido visual del mundo que las rodea. Este campo es fundamental para muchas aplicaciones prácticas donde se necesita la percepción visual, como en sistemas de seguridad, control de calidad en la fabricación, diagnóstico por imágenes médicas, reconocimiento de objetos y mucho más.
- Procesamiento del lenguaje natural (PNL): se centra en la interacción entre computadoras y humanos utilizando el lenguaje natural. Las principales tareas de PLN incluyen traducción automática, reconocimiento de voz, análisis de sentimientos, extracción de información y generación de texto, entre otras. El objetivo de la PNL es comprender, interpretar y manipular el lenguaje humano de una manera que sea útil para aplicaciones prácticas. La generación de texto es sólo una de las muchas aplicaciones de PLN.
- IA generativa: es un campo amplio e incluye diferentes técnicas que se utilizan para generar nuevos datos que pueden ser imágenes, música, video y texto, entre otros. El objetivo aquí es crear contenido que no se pueda distinguir del real o generar nuevos ejemplos dentro de un determinado dominio de datos. Pero cuando nos referimos específicamente a la generación de texto, entonces los modelos utilizados son los llamados LLM (Large Language Models), que utilizan diversas técnicas tanto para comprender el lenguaje humano como para producir texto que tenga sentido para la comprensión humana.
Vale la pena señalar que los 4 tipos mencionados anteriormente pueden interrelacionarse para resolver ciertos casos de uso donde se requiere aplicar diferentes técnicas o modelos juntos para lograr el resultado esperado. Por ejemplo, la IA generativa para la generación de texto y las interacciones con humanos requiere que los modelos de PNL ingresen al campo de antemano para determinar la comprensión del tema de la interacción en curso.
2. EL PAPEL DE LOS DATOS PARA LA IA
Los datos juegan un papel fundamental en la Inteligencia Artificial (IA), siendo esenciales para entrenar, probar y mejorar los modelos de IA. Son la base sobre la que operan los algoritmos de aprendizaje automático y aprendizaje profundo, y la calidad, cantidad y relevancia de estos datos tienen un impacto directo en la eficacia y eficiencia de los sistemas de IA. En este sentido, podemos enumerar algunos roles esenciales que juegan los datos en cualquier proyecto que involucre IA:
Entrenamiento modelo:
Aprendizaje supervisado: los modelos de IA se entrenan utilizando grandes conjuntos de datos que incluyen entradas y salidas esperadas. Estos datos permiten que el modelo aprenda a hacer predicciones o decisiones basadas en ejemplos pasados.
- Aprendizaje no supervisado: en tareas de aprendizaje no supervisado, los modelos de IA se entrenan para identificar patrones y relaciones en conjuntos de datos sin etiquetas predefinidas.
- Aprendizaje por refuerzo: los datos sobre las interacciones con el entorno y la retroalimentación sobre el desempeño del modelo se utilizan para aprender estrategias o comportamientos.
Evaluación y validación: los datos se utilizan para validar y probar la precisión de los modelos de IA después del entrenamiento. Esto a menudo se hace utilizando un conjunto de datos de prueba separado, que el modelo no ha visto durante el entrenamiento, para garantizar que el modelo pueda generalizarse bien a nuevos datos.
Mejora continua: los datos recopilados de las interacciones reales de los usuarios con los sistemas de IA se pueden utilizar para mejorar continuamente los modelos. Por ejemplo, los errores identificados o nuevos ejemplos que no se predijeron correctamente se pueden agregar al conjunto de entrenamiento para futuras iteraciones de aprendizaje.
Personalización: los datos específicos del usuario permiten a los sistemas de inteligencia artificial personalizar sus respuestas y recomendaciones. Cuantos más datos tenga un sistema sobre las preferencias, el comportamiento y el historial de un usuario, más precisas y personalizadas podrán ser las interacciones.
Detección de anomalías: en muchas industrias, los datos son monitoreados por sistemas de inteligencia artificial para detectar patrones anormales o actividades sospechosas. Esto es fundamental para la prevención del fraude, el mantenimiento predictivo y el monitoreo de la seguridad.
Simulaciones y modelado: los datos históricos y simulados se utilizan para modelar escenarios complejos y realizar simulaciones en entornos controlados. Esto se utiliza ampliamente en campos como la meteorología, la economía y la planificación urbana.
La calidad de los datos es crucial. Los datos incorrectos pueden provocar el fenómeno de “entra basura, sale basura”, en el que los modelos de IA entrenados con datos de mala calidad producen resultados inútiles o incorrectos. Los datos precisos, diversos y representativos son esenciales para el éxito de los sistemas de IA.
Los datos no son sólo el combustible de la IA; son la columna vertebral que determina qué tan bien un sistema de IA puede operar, adaptarse y evolucionar con el tiempo. Y precisamente para resaltar la importancia de esta etapa en cualquier proyecto de IA, aquí en TOTVS siempre repetimos el mantra: “SIN DATOS INTEGRADOS, ACCESIBLES Y LISTOS, NO HAY IA”
3. IA GENERATIVA, ¿EL “HYPE” DEL MOMENTO?
3.1 ¿Qué es?
La esencia de los modelos de IA generativa (tanto los LLM para generación de texto como los modelos para generación de imágenes, por ejemplo) radica en su capacidad para evaluar y manipular probabilidades. Estos modelos utilizan redes neuronales avanzadas (a menudo llamadas redes neuronales profundas o aprendizaje profundo) para aprender patrones en grandes conjuntos de datos. Están capacitados para generar nuevos datos que se asemejen a los datos de entrenamiento. Implicaciones prácticas de esta capacidad:
- En la generación de texto: el modelo utiliza estas probabilidades para crear secuencias de texto coherentes y contextualmente apropiadas. Por ejemplo, en una oración donde el contexto sugiere una conversación sobre el clima, el modelo calculará qué palabras relacionadas con el clima tienen más probabilidades de seguir que las palabras relacionadas con temas irrelevantes.
- Sobre diversidad y variedad: la manipulación de estas probabilidades también permite que los modelos LLM varíen el estilo, el tono o la especificidad del texto generado. Por ejemplo, al ajustar la temperatura (un parámetro que afecta la distribución de probabilidad durante la generación de texto), puede hacer que el modelo genere respuestas más conservadoras (más probables) o más creativas (menos probables).
- En comprensión y corrección: la capacidad de evaluar probabilidades también permite utilizar los LLM para tareas como completar frases, corregir gramática e incluso traducir textos, siempre en función de qué secuencia de palabras es estadísticamente más probable dada una secuencia inicial o un contexto.
Los modelos de IA generativa más avanzados para la generación de texto (LLM) utilizan una arquitectura de red neuronal específica conocida como “Transformer” (más sobre esto más adelante). Inicialmente, estos modelos se entrenan previamente en grandes cantidades de texto sin supervisión (aprendiendo a predecir la siguiente palabra en oraciones, por ejemplo) y luego se pueden ajustar para tareas específicas.
La Inteligencia Artificial Generativa ganó protagonismo y se convirtió en el “éxito del momento” por varias razones, que reflejan tanto avances tecnológicos como aplicaciones prácticas e innovadoras. Éstos son algunos de los principales factores que contribuyen a su popularidad:
- Capacidades creativas innovadoras: la IA generativa es capaz de crear contenido nuevo y único, como texto, imágenes, música y vídeos, que a menudo son indistinguibles de los creados por humanos. Esta capacidad de “crear” en lugar de simplemente “analizar” o “predecir” capta la imaginación del público y de las empresas por igual, lo que sugiere un futuro en el que la IA no sea solo una herramienta analítica sino también un socio creativo.
- Avances significativos en modelos específicos: algunos modelos han demostrado capacidades extraordinarias para generar texto coherente e imágenes creativas a partir de descripciones textuales simples. La capacidad de estos modelos para generar contenido detallado y altamente específico ha atraído una importante atención de los medios y un interés comercial.
- Aplicaciones comerciales atractivas: las empresas están encontrando usos prácticos para la IA generativa que pueden transformar las industrias. Esto incluye todo, desde la automatización del diseño gráfico y la producción de contenidos hasta aplicaciones personalizadas en moda, publicidad y entretenimiento. La capacidad de personalizar productos y servicios a gran escala, sin los costos asociados con la creación humana tradicional, resulta particularmente atractiva.
- Mejoras en accesibilidad y usabilidad: Las plataformas con interfaces cada vez más fáciles de usar han hecho que la IA generativa sea más accesible para desarrolladores y creativos sin formación especializada en IA o programación. Esto democratiza el poder de la IA generativa, permitiendo que una gama más amplia de usuarios experimente e implemente sus propias ideas creativas.
- Impacto cultural y social: la IA generativa también ha provocado importantes debates sobre ética, autoría y creatividad. Las preguntas sobre los derechos de autor, la autenticidad y el papel de la máquina en el arte y la creación de contenidos estimulan debates públicos que aumentan la visibilidad y la fascinación por estas tecnologías.
Evolución de la tecnología y la inversión: el avance continuo en la capacidad computacional y los algoritmos de aprendizaje profundo ha permitido mejoras constantes en las técnicas de IA generativa. Además, una inversión sustancial en investigación y desarrollo por parte de los principales actores tecnológicos como Google, OpenAI y otros acelera el desarrollo y la aplicación de estas tecnologías.
3.2 Modelos de IA generativa
3.2.1 LLMS, PNL e IA generativa
Los modelos LLM (Large Language Models) son en realidad la intersección entre el procesamiento del lenguaje natural (NLP) y la IA generativa (IAGen). En PLN, el énfasis está en la comprensión: comprender, interpretar y analizar el lenguaje humano. Esto incluye tareas como:
- Reconocimiento de voz, donde el objetivo es convertir la voz en texto comprensible para máquinas.
- Análisis de sentimiento, que consiste en determinar la actitud o emoción expresada en un texto.
- Extracción de información, como identificar personas, lugares, fechas y otros datos específicos en un texto.
- Comprensión del lenguaje, donde el modelo evalúa e interpreta el significado del texto para responder preguntas o proporcionar ideas.
En IAGen, el énfasis está en la creación”: generar nuevo contenido textual de tal manera que no sea solo una repetición de información memorizada, sino una recombinación creativa de conocimientos adquiridos que pueda resultar en algo nuevo y original. Esto incluye tareas como:
- Generación de texto, donde el modelo produce contenido completamente nuevo, como artículos, historias o conversaciones.
- La traducción automática, que si bien es un proceso de transformación, implica la creación de texto en un nuevo idioma que refleje el significado del original.
- Resumen, que crea una versión más breve y concisa de un texto existente, destacando sus puntos principales.
Nótese, por tanto, que la aplicación de un modelo tipo LLM para interacciones fluidas con seres humanos presupone simultáneamente dos enfoques complementarios: el uso del Procesamiento del Lenguaje Natural (NLP) para asegurar la comprensión del lenguaje humano en la interacción, seguido de la IA Generativa (AI Gen), capaz de crear contenidos o respuestas creativas, contextualizadas y relevantes para la comprensión humana.
3.2.2 GANS
Las GAN son un tipo específico de modelo de IA generativa. Están compuestos por dos redes neuronales que compiten entre sí en un juego teórico:
- Generador: esta red se encarga de generar nuevos datos. El propósito del generador es crear datos falsos que no se pueden distinguir de los datos reales.
- Discriminador: Esta red actúa como crítico o juez. Su función es distinguir entre datos reales (datos verdaderos del conjunto de entrenamiento) y datos falsos producidos por el generador.
El proceso de entrenamiento de una GAN es una especie de juego entre el generador y el discriminador. El generador intenta “engañar” al discriminador produciendo datos cada vez más plausibles, mientras el discriminador aprende a detectar mejor las falsificaciones. Este proceso continúa hasta que el generador se vuelve tan bueno simulando datos reales que el discriminador ya no puede distinguir efectivamente entre lo real y lo falso.
Las GAN se han utilizado en una variedad de aplicaciones, tales como:
- Generación de imágenes artísticas: crea nuevas imágenes que imiten estilos de pinturas famosas o generen rostros humanos que no existen.
- Mejora de imagen: aumenta la resolución de imágenes de baja calidad.
- Modelado de moda: crea nuevos diseños de ropa o pruébate ropa automáticamente en cuerpos virtuales.
- Simulaciones: genere datos de entrenamiento para otras redes neuronales, especialmente en escenarios donde los datos reales son escasos o difíciles de recopilar.
3.2.3 Otros modelos
Además de las propias GAN, a continuación se muestran algunos otros modelos de IA generativa que también se utilizan ampliamente en diferentes aplicaciones:
- VAE (Variational Autoencoder Models): para tareas donde es necesaria la generación de nuevas muestras de datos continuos (aplicaciones de imágenes y modelado musical);
- MGAN (Memory Generative Adversarial Networks): le permite almacenar ejemplos de datos de entrenamiento y utilizar este conocimiento para generar datos nuevos, más consistentes y de alta calidad (aplicaciones médicas y científicas);
- DBN (Deep Belief Neural Networks): múltiples capas entrenadas en un proceso no supervisado, seguido de un ajuste supervisado (aplicaciones para reconocimiento y clasificación de patrones, para generar nuevos ejemplos);
- Modelo de Transformador Generativo: basado en la arquitectura “Transformer”, son capaces de predecir el siguiente “token” en una secuencia, como la siguiente palabra en una oración (aplicaciones para completar mensajes de búsqueda en motores de búsqueda, crear artículos, chatbots y código cronograma).
3.3 Arquitectura del transformador (y por qué es tan importante)
El término “transformador” se refiere a una arquitectura de modelo de aprendizaje automático que fue introducida en 2017 por Vaswani et al. En el artículo titulado “La atención es todo lo que necesitas”.
Desde entonces, esta arquitectura ha revolucionado el campo del procesamiento del lenguaje natural (NLP) y se ha convertido en la base de la mayoría de los LLM, como GPT (transformador generativo preentrenado) de OpenAI, BERT (representaciones de codificador bidireccional de transformadores) de Google y muchos otros.
La arquitectura transformadora ha permitido avances significativos en la calidad y eficiencia de los modelos de PNL, haciendo posible entrenar modelos muy grandes que pueden generalizarse bien de un conjunto de tareas de PNL a otro. Esta capacidad generalista es parte de lo que hace que los LLM basados en transformadores sean tan potentes y versátiles en una variedad de aplicaciones de PNL.
3.4 IA generativa multimodal
La IA generativa multimodal es un concepto avanzado en el campo de la Inteligencia Artificial que se refiere a la capacidad de un sistema de IA para comprender y generar contenido en más de un tipo de modalidad mediática. Estas modalidades pueden incluir texto, imagen, sonido, video y otros tipos de datos sensoriales.
Los desafíos técnicos son grandes. Desarrollar métodos sólidos para analizar y sintetizar información de diferentes modalidades de datos es un desafío debido a la complejidad y variabilidad de la información que puede contener cada modalidad. El entrenamiento de modelos requiere grandes conjuntos de datos anotados multimodalmente, que pueden resultar difíciles y costosos de obtener. Además, los sistemas multimodales pueden requerir muchos más recursos de procesamiento y almacenamiento.
Actualmente, todas las soluciones de IA generativa convergen en un enfoque multimodal, convirtiéndose prácticamente en la premisa de cualquier proveedor. El objetivo de la IA generativa multimodal es crear sistemas que no sólo comprendan cada tipo de medio de forma aislada, sino que también sean capaces de integrar y correlacionar información entre diferentes modalidades de una manera coherente y útil. Sus principales características son:
- Integración de modalidades: los sistemas multimodales son capaces de procesar y relacionar información de múltiples fuentes sensoriales o tipos de datos al mismo tiempo. Por ejemplo, un sistema puede analizar tanto el texto como las imágenes de un documento para comprender mejor el contenido y el contexto.
- Generación cruzada de contenidos: Un sistema multimodal puede generar una modalidad de contenidos a partir de otra. Por ejemplo, puede crear una descripción textual de una imagen (una tarea conocida como generación de subtítulos) o generar una imagen a partir de una descripción textual.
- Enriquecimiento de datos: Estos sistemas pueden enriquecer una modalidad de datos con información derivada de otra. Por ejemplo, mejorar la comprensión de un vídeo añadiendo metadatos textuales extraídos del audio y la imagen.
A continuación, algunas de las principales aplicaciones de la IA generativa multimodal:
- Generación de contenidos multimedia: cómo crear presentaciones o contenidos para redes sociales que combinen texto, imagen y vídeo de forma armoniosa y contextualmente relevante.
- Asistentes virtuales avanzados: Desarrollar asistentes que no solo comprendan comandos de voz, sino que también puedan interpretar expresiones faciales y lenguaje corporal para ofrecer respuestas más contextualizadas y humanizadas.
- Educación y capacitación: cree materiales de aprendizaje que combinen texto, diagramas y simulaciones interactivas, adaptándose a las respuestas y la participación de los usuarios.
- Análisis de redes sociales: analice publicaciones que contengan texto, imágenes y videos para comprender mejor las tendencias, el sentimiento y el contexto subyacente.
- Robótica e interfaces hombre-máquina: mejorar la interacción entre humanos y máquinas al permitir que los sistemas robóticos interpreten una gama más amplia de comandos sensoriales y respondan de manera más natural.
3.5 Agentes de IA generativa
El término “Agentes de IA generativa” se refiere a sistemas de inteligencia artificial que utilizan técnicas de IA generativa para responder o realizar una acción a petición del usuario.
Estos agentes combinan el conocimiento y las habilidades adquiridos a través de la capacitación en vastos conjuntos de datos para generar respuestas, soluciones o productos que no son simplemente repeticiones de ejemplos pasados, sino más bien nuevas creaciones basadas en patrones e información aprendidos.
- Creación de contenido: los agentes pueden generar contenido nuevo que no son meras copias de datos de entrenamiento, sino recombinaciones creativas de información aprendida.
- Autonomía: operan con cierto grado de independencia, tomando decisiones basadas en información procesada sin intervención humana constante.
- Adaptabilidad: pueden adaptar sus creaciones a diferentes contextos y necesidades, ajustando el estilo, tono y complejidad del contenido generado.
La elección entre llamar a estos sistemas “Agentes de IA generativos” o “Agentes LLM” depende del contexto y el alcance de sus funcionalidades. Ambos términos tienen validez, pero resaltan diferentes aspectos de los sistemas:
¿“Agentes de IA generativa” o “Agentes LLM”?
Agentes de IA generativa: enfoque más amplio. Este término es más inclusivo e incluye cualquier sistema de inteligencia artificial que genere contenido o datos nuevos que no sean simplemente copias de datos de entrenamiento. Esto incluye, entre otros, texto, imágenes, música e incluso comportamientos en entornos simulados. Diversidad de técnicas: Abarca una variedad de métodos, incluidos, entre otros, LLM, por lo que puede incluir modelos para imágenes, modelos musicales, entre otros.
Agentes LLM: enfoque específico en lenguaje. Este término se centra en agentes que utilizan modelos de lenguaje a gran escala para procesar y generar lenguaje natural. Esto resalta la capacidad del agente para comprender y producir texto humano de una manera coherente y contextualmente relevante. Limitado a modelos de texto y lenguaje.
3.6 Tokens, incrustaciones y GPU
En los casos de uso de IA generativa, los textos que se procesarán mediante modelos de procesamiento del lenguaje natural (PLN) generalmente pasan primero por un proceso llamado tokenización, donde el texto se divide en partes más pequeñas llamadas tokens. Estos tokens pueden ser palabras completas, partes de palabras (como en la tokenización basada en subpalabras) o incluso símbolos de puntuación. Estos tokens funcionan como unidades de procesamiento.
En la mayoría de los modelos de procesamiento del lenguaje natural (NLP), un token se convierte en un vector. Este proceso se conoce como “incrustación”. Estos vectores resultantes se almacenan en un “banco de vectores”, donde por tanto son accesibles para que los modelos de PNL puedan procesarlos. Vea el ejemplo de vectorización de la palabra “TOTVS”:
Vector “TOTVS”=[0,85,−0,22,0,15,0,05,−0,07,0,33,0,18,−0,55]
En este vector:
Cada número representa una característica latente de la palabra “TOTVS”, aprendida de un gran conjunto de datos de texto que incluye debates sobre tecnología, software empresarial y negocios.
La primera dimensión (0,85) puede indicar una fuerte asociación con la tecnología o la innovación.
La última dimensión (-0,55) podría representar una distinción de contextos no relacionados, como la comida o el entretenimiento.
Las incrustaciones son una parte fundamental de los modelos de lenguaje a gran escala (LLM), ya que en cualquier modelo de aprendizaje automático, incluidos los propios LLM, la entrada debe ser numérica para que pueda ser procesada por redes neuronales. Sin esta transformación, sería imposible aplicar algoritmos de aprendizaje automático al texto.
Las incrustaciones no sólo convierten texto en números, sino que también incorporan información sobre el significado de las palabras y sus relaciones con otras palabras. Esto es crucial para que los LLM comprendan y generen el lenguaje de manera efectiva. Por tanto, los vectores creados no son aleatorios: están diseñados para que las distancias y direcciones en el espacio vectorial representen relaciones semánticas y sintácticas para que el modelo de PNL pueda interpretarlas lógicamente.
GPU, que significa Unidad de procesamiento de gráficos, es un componente de hardware especializado en procesar operaciones de gráficos e imágenes de forma rápida y eficiente. Las GPU son ampliamente conocidas por su capacidad para manejar cálculos paralelos complejos, lo que las hace ideales para juegos, renderizado de gráficos y, más recientemente, aplicaciones de aprendizaje automático y procesamiento de datos.
Son especialmente valiosos para entrenar y ejecutar modelos de IA generativa debido a su capacidad para realizar muchas operaciones en paralelo. Los modelos modernos de IA generativa, como los basados en arquitecturas de “transformador”, implican muchos cálculos matemáticos simultáneos (especialmente operaciones de multiplicación de matrices) que se requieren para procesar los tokens. Las GPU pueden acelerar significativamente estos cálculos debido a su arquitectura paralela.
Recordando que dado que cada token (que se origina a partir de un fragmento del texto a procesar) necesita transformarse en un vector numérico (técnica de incrustación), su procesamiento se realiza a través de varias capas del modelo para comprender el contexto, generar predicciones u optimizar el función de pérdida del modelo. En este contexto, las GPU facilitan este proceso al manejar grandes volúmenes de tokens (y, en consecuencia, vectores) de manera eficiente, reduciendo el tiempo necesario para el entrenamiento y la inferencia.
3.7 Principales técnicas para aumentar la precisión
Para mejorar la precisión de los modelos lingüísticos a gran escala (LLM), se emplean varias técnicas. Cada uno de ellos aborda diferentes aspectos del rendimiento y la funcionalidad de los modelos.
3.7.1 RAG (Generación Aumentada de Recuperación)
Es la técnica que combina la generación de texto de un LLM con un sistema de recuperación de información. El modelo primero consulta una base de datos o un conjunto de documentos relevantes, generalmente vectorizados y almacenados en una base de datos vectorial, para encontrar información que se utilice como contexto más preciso para generar respuestas.
Al generar respuestas, el modelo consulta documentos relacionados con la consulta del usuario y utiliza esta información para informar y guiar la respuesta del modelo, lo que ayuda a aumentar la precisión y la relevancia fáctica de los resultados.
3.7.2 Inyección de conocimiento
Inyecte conocimientos específicos en el modelo durante el entrenamiento para ayudarlo a mejorar en áreas donde pueden faltar datos detallados.
Por ejemplo, los modelos pueden entrenarse previamente con manuales técnicos, libros de texto u otros materiales ricos en información para aumentar sus conocimientos en áreas específicas.
3.7.3 Puesta a tierra
Grounding, o anclaje, es el proceso de vincular la generación de un LLM a fuentes de datos confiables y específicas para garantizar que la información generada sea precisa y esté basada en la realidad.
Esto puede implicar la integración de bases de datos, API externas u otros recursos confiables directamente en el proceso de procesamiento del modelo para que las respuestas generadas reflejen información veraz y actualizada.
3.7.4 Ajuste fino
El ajuste es el proceso de entrenar un modelo previamente entrenado en un conjunto de datos específico o tareas específicas para adaptar sus respuestas a las necesidades particulares de una aplicación.
Esto a menudo se hace entrenando el modelo con datos nuevos que representan el tipo de preguntas o contenido que encontrará en el uso práctico, lo que puede mejorar significativamente su precisión y rendimiento en escenarios específicos.
3.7.5 Evaluación y retroalimentación continua
Implica implementar sistemas de retroalimentación donde los usuarios o evaluadores puedan calificar la calidad y precisión de las respuestas del modelo. Estos datos de retroalimentación se pueden utilizar para ajustar y mejorar continuamente el modelo, ya sea mediante reentrenamiento o ajuste fino.
3.8 Alucinación
El término “alucinación” en la IA generativa se refiere a cuando un modelo de IA genera información que no es cierta o no tiene base en los datos de entrada proporcionados. Este fenómeno es particularmente común en modelos de lenguaje e imagen que están diseñados para producir resultados coherentes y convincentes basados en patrones de aprendizaje en grandes conjuntos de datos. Aquí hay algunos puntos importantes sobre por qué hablamos de alucinaciones en este contexto:
- Interpolación vs. invención: mientras que los modelos de IA son excelentes para identificar patrones e interpolarlos para crear respuestas plausibles. También pueden generar contenido completamente nuevo o inesperado que no refleja la realidad ni los datos de entrada. Esta generación puede verse como una “alucinación”, ya que el modelo “imagina” detalles o información que no fueron indicados específicamente.
- Limitaciones del modelo: los modelos de IA generativa pueden “alucinar” porque no comprenden el mundo real de la misma manera que los humanos. Operan en base a correlaciones estadísticas en sus datos de entrenamiento. Por lo tanto, si algo es común en los datos de entrenamiento, puede generarse con frecuencia, incluso cuando no sea relevante o verdadero para una nueva entrada específica.
- Calidad y sesgo de los datos de entrenamiento: si los datos de entrenamiento contienen errores, inexactitudes o sesgos, el modelo puede aprender estas características y reflejarlas en sus resultados. Esto puede provocar alucinaciones que son reflejos distorsionados o exagerados de patrones menos comunes o atípicos en los datos de entrenamiento.
- Complejidad de la generación de contenido: en tareas complejas, como generar un artículo o una imagen detallada, es posible que los modelos necesiten “llenar los vacíos” donde información específica no está disponible o es ambigua. Esto puede dar lugar a creaciones que sean lógicamente coherentes con los datos de entrenamiento, pero que sean objetivamente incorrectas o engañosas.
- Desafíos de control y previsibilidad: Gestionar y predecir cuándo y cómo ocurren las alucinaciones es un desafío técnico importante. Los desarrolladores e investigadores continúan buscando formas de reducir la frecuencia y la gravedad de las alucinaciones en los modelos de IA, mediante mejoras en la arquitectura del modelo, técnicas de entrenamiento y una curación de datos más rigurosa.
Por lo tanto, hablar de alucinaciones en la IA generativa es una forma de reconocer y abordar las limitaciones y desafíos que enfrentan estos sistemas cuando intentan crear contenido nuevo y significativo de forma autónoma.
3.9 Dilemas morales y éticos
La Inteligencia Artificial (IA) presenta una serie de dilemas éticos y morales que son esencial considerar a medida que la tecnología continúa evolucionando e integrándose más profundamente en la sociedad. Éstos son algunos de los dilemas éticos y morales clave que enfrenta la IA en la actualidad:
- Sesgo y discriminación: los modelos de IA pueden perpetuar o incluso amplificar los sesgos existentes en los datos de entrenamiento, lo que resulta en prejuicios contra ciertos grupos. Esto puede conducir a decisiones discriminatorias en áreas críticas como la contratación, los préstamos, la justicia y la atención sanitaria.
- Privacidad: los sistemas de inteligencia artificial dependen de grandes cantidades de datos, que pueden incluir información personal confidencial. El uso indebido o la exposición de estos datos pueden violar la privacidad de las personas.
- Transparencia y explicabilidad: algunos modelos de IA, especialmente aquellos basados en el aprendizaje profundo, a menudo se consideran “cajas negras”, ya que sus decisiones no son fácilmente comprensibles para los humanos.
- Autonomía y empleo: la automatización impulsada por la IA tiene el potencial de reemplazar empleos y crear un impacto importante en la eficiencia de la cadena de producción, generando preocupaciones sociales sobre la desigualdad y la pérdida de autonomía en el trabajo.
- Seguridad: los sistemas de inteligencia artificial pueden usarse con fines maliciosos o pueden tener fallas de seguridad que los hacen vulnerables a ataques. Esto puede tener graves consecuencias, especialmente en sistemas críticos como el transporte y la infraestructura crítica.
- Responsabilidad: Determinar la responsabilidad por las acciones o decisiones tomadas por los sistemas de IA es complejo. Los vehículos autónomos son un ejemplo. Esto puede incluir errores que resulten en daños a la propiedad o incluso la pérdida de vidas.
- Desarrollo y uso militar: a medida que se incorporan modelos de IA a los sistemas de armas y estrategias militares, se plantean cuestiones éticas sobre el papel de la IA en los conflictos armados en detrimento de los principios elementales y no negociables de protección y preservación de la vida humana, por ejemplo. ejemplo.
- Consentimiento y manipulación: los sistemas de inteligencia artificial, como los algoritmos de recomendación y personalización, pueden usarse para manipular comportamientos y opiniones, lo que genera preocupaciones sobre la autonomía y el consentimiento de los individuos.
- Propiedad intelectual: este problema merece un enfoque aún más detallado:
- Autoría y creación: cuando un sistema de inteligencia artificial genera arte, música, texto o cualquier otra forma de expresión creativa, surgen preguntas sobre quién posee los derechos de autor de la obra. La legislación actual en muchos países generalmente no reconoce las obras creadas por máquinas como sujetas a derechos de autor, ya que no tienen un “autor” humano.
- Innovaciones y patentes: los sistemas de IA que desarrollan nuevos inventos o descubren nuevos procesos también pueden plantear dudas sobre la patentabilidad de esas innovaciones. Tradicionalmente, las patentes requieren un inventor humano y muchas oficinas de patentes están debatiendo si las invenciones generadas por IA pueden patentarse.
- Uso de datos para entrenamiento: la IA a menudo se entrena con grandes cantidades de datos, incluidos datos protegidos por derechos de autor. El uso de estos datos puede generar preocupaciones legales sobre la infracción de derechos de autor, especialmente cuando los datos no solo se utilizan para capacitación sino que también son replicados o imitados por la IA.
- Transparencia y trazabilidad: Determinar el origen de una obra o invención creada por IA puede ser un desafío, especialmente cuando estos sistemas son cajas negras que no revelan fácilmente cómo se toman las decisiones o de dónde provienen los elementos individuales de una creación.
Todos estos dilemas mencionados anteriormente no pretenden constituir una lista exhaustiva, dado un escenario dinámico en el que nos enfrentamos a cosas nuevas cada día. No sólo desafían a los desarrolladores y usuarios de la tecnología de IA, sino también a los formuladores de políticas, los reguladores y la sociedad en su conjunto. Abordar estos problemas requiere un esfuerzo colaborativo para desarrollar pautas, regulaciones y políticas éticas que definan el uso responsable de la IA.
Aquí en TOTVS, por ejemplo, ya hemos adoptado un manual de buenas prácticas para el uso responsable de la IA y estamos desarrollando una política definitiva de IA que podría incluirse en el Código de Conducta de la empresa.
4. CASOS DE USO DE LA IA GENERATIVA
La evaluación de aplicaciones de Inteligencia Artificial generativa requiere la definición de Indicadores Clave de Rendimiento (KPI) específicos para cada área de aplicación. A continuación se muestran algunos ejemplos de casos de uso y sugerencias para tres KPI relevantes para cada una de las aplicaciones enumeradas, acompañados de puntos de referencia.
4.1 Generación de contenido de texto
- Ejemplo: modelos como GPT-3 y GPT-4, de OpenAI, se utilizan para generar contenido textual creativo e informativo, incluidos artículos, blogs, guiones e incluso libros.
- Industrias aplicables: medios, publicidad, educación y entretenimiento.
- KPI recomendados:
- Tasa de participación del usuario: mide la interacción de los usuarios con el contenido generado.
- Precisión del contenido: evalúa la corrección fáctica y la relevancia del contenido.
- Eficiencia de generación: tiempo necesario para generar contenido.
- Puntos de referencia:
- Tasa de participación: +50 % sobre el contenido no generado por IA.
- Precisión del contenido: +90 % de precisión objetiva.
- Eficiencia de generación: 50% de reducción del tiempo de producción respecto al proceso manual
4.2 Generación de imágenes y arte
- Ejemplo: modelos como DALL-E y otros basados en técnicas de Generative Adversarial Networks (GAN) que crean imágenes artísticas o fotográficas a partir de descripciones textuales.
- Industrias aplicables: arte, diseño de moda, arquitectura y publicidad.
- KPI recomendados:
- Calidad visual: evaluada por expertos o mediante comentarios de los usuarios.
- Originalidad: medida de unicidad en relación con un conjunto de datos de referencia.
- Tasa de aceptación del cliente: porcentaje de imágenes aceptadas por los clientes en el primer envío.
- Puntos de referencia:
- Calidad visual: 85% de críticas positivas.
- Originalidad: índice de novedad superior al 80%.
- Tasa de aceptación: superior al 75% en la primera presentación.
4.3 Asistentes virtuales avanzados
- Ejemplo: chatbots y asistentes virtuales que utilizan IA generativa para brindar respuestas más naturales y contextualizadas.
- Industrias aplicables: servicio al cliente, atención médica, finanzas y comercio electrónico.
- KPI recomendados:
- Tasa de Resolución de Primer Contacto (FCR): resoluciones sin transferencia a soporte humano.
- Satisfacción del cliente: medida a través de encuestas post-interacción.
- Tasa de contención: llamadas contenidas dentro del sistema de IA.
- Puntos de referencia:
- FCR: mayor al 70%.
- Satisfacción del cliente: más del 80% de satisfacción.
- Tasa de contención: más del 75%.
4.4 Generación de código automatizada
- Ejemplo: herramientas como GitHub Copilot que sugieren o generan código fuente para ayudar a los programadores.
- Industrias aplicables: desarrollo de software y educación en programación.
- KPI recomendados:
- Precisión del código: medición de errores o bugs por línea de código.
- Eficiencia del desarrollo: reducción del tiempo de desarrollo.
- Satisfacción del desarrollador: evaluada a través de comentarios directos de los programadores.
- Puntos de referencia:
- Precisión del código: menos del 0,5% de errores.
- Eficiencia en el desarrollo: 50% de reducción en el tiempo.
- Satisfacción del desarrollador: más del 85% de satisfacción.
Estas aplicaciones demuestran la versatilidad y el potencial transformador de la IA generativa, permitiendo la creación y la innovación a una escala inimaginable hasta hace poco.
5. ¿CÓMO TRATAMOS/PRIORIZAMOS EL TEMA DE DATOS E IA EN TOTVS?
En TOTVS nos guiamos por generar valor a partir de los datos y a esto lo llamamos “Cultura impulsada por el valor de los datos”. Aquí, un datalake para centralizar y almacenar infinitos volúmenes de datos nunca será protagonista de la estrategia. El protagonista es el caso de uso, que utiliza datos para desbloquear el valor percibido por nuestros clientes.
La IA juega un papel fundamental en esta construcción de valor, ya sea aplicada a los datos para lograr ganancias en eficiencia operativa, o aplicada a los datos para crear valor percibido para el mercado en forma de nuevas funciones en nuestro software de gestión, soluciones financieras u optimización del marketing y ventas. Por lo tanto, aquí en TOTVS, los datos y la IA son un medio y no el fin.
Esto requiere de una mentalidad adecuada de toda la organización, con comportamientos y actitudes permanentes de nuestros colaboradores en las diferentes unidades y áreas de negocio, hacia una cultura basada en datos. En nuestro manual de datos e inteligencia artificial, estas son las premisas de TOTVS:
5.1 Caso de uso primero
No tiene sentido tener datos o aplicar IA si no hay una construcción objetiva del valor (el petróleo sólo tiene valor cuando se convierte en gasolina disponible en el surtidor de gasolina). Por lo tanto, colocamos el caso de uso y el valor percibido como el criterio central primario en cualquier proyecto.
5.2 Plataforma de datos al servicio de todos
Nos guiamos por generar valor a partir de los datos, incorporando una verdadera cultura “impulsada por el valor de los datos”. La plataforma de autoservicio centraliza los datos, al tiempo que garantiza escalabilidad y seguridad. Nuestro lema: “Sin datos completos, accesibles y listos, no hay IA”.
5.3 Gobernanza federada
Permitimos un enfoque descentralizado y flexible entre diferentes dominios autónomos (áreas o unidades de la empresa que utilizan datos a gran escala en sus propios casos de uso), con características diferentes entre sí. Aseguramos barreras de seguridad para garantizar la diligencia en nuestras iniciativas, sin perder agilidad y rapidez empresarial.
5.4 IA escalable, segura y decidida
Proporcionamos todos los productos y servicios de TOTVS con los mejores recursos de Inteligencia Artificial disponibles, organizados en tres pilares principales:
- Content&Knowledge: casos de uso asociados a la aplicación de IA que hacen uso de bancos de conocimiento o contenidos;
- Build&Code: casos de uso asociados a la aplicación de IA dedicada a la creación y/o revisión de Código Fuente en diferentes idiomas;
- Live&Action: casos de uso asociados a la aplicación de IA que requieren consultas o procesamiento de datos en tiempo real;
5.5 ADT
La orquestación técnica de las aplicaciones de IA en estos tres pilares materializa la plataforma que llamamos DTA (Digital Trusted Advisor). Esta plataforma busca esencialmente facilitar, de forma escalable y segura, las tres etapas principales de habilitación de una aplicación:
- acceder a los principales modelos de IA disponibles en el mercado;
- asegurar la gobernanza en el uso de estos modelos; y
- asegurar el control del consumo presupuestario, con el coste de las solicitudes de tokens para los diferentes modelos utilizados.
Con TOTVS DTA habilitamos la IA para mejorar nuestra eficiencia operativa y la capacidad de toma de decisiones de nuestros clientes.
6. LOS 5 PASOS PARA INICIAR UN PROYECTO DE IA EN TU EMPRESA
1º Identificación de necesidades y oportunidades
Evalúe dónde la IA generativa puede agregar valor a su empresa. Esto puede incluir automatizar tareas creativas, personalizar productos o servicios e innovar procesos existentes. Una buena plantilla para guiar este paso implica lo siguiente:
I) Definir el dolor (o puntos de dolor) que desea resolver y/o las respectivas frustraciones y/o sentimientos negativos resultantes de ese dolor;
II) ahora señale las principales implicaciones objetivas para su negocio (ejemplo: ineficiencia operativa, tiempo excesivo consumido por los altos cargos en tareas operativas, insatisfacción de clientes o prospectos, etc.);
III) definir la persona de quienes pretenden resolver el problema a través de una solución basada en IA generativa, facilitando el diseño de un enfoque suficientemente adecuado al perfil de usuario previsto (ejemplo: abogados del Departamento Jurídico)
IV) proponer la hipótesis de solución, detallando lo que se espera realizar mediante la aplicación de IA generativa, es decir, los “trabajos por realizar”. Aquí es el momento de especificar cada acción esperada a lo largo del camino desde la solución hasta su resultado. Por ejemplo:
En un departamento Legal, un “Asistente de Revisión de Contratos” basado en IA generativa debe: tener una interfaz fácil de usar cargar el archivo a revisar y luego confirmar el contenido del archivo recibido que será revisado y luego realizar la revisión mediante consulta; una base de conocimiento previamente disponible, para luego señalar los respectivos puntos que son sensibles en la negociación o que no cumplen con la política comercial o el cumplimiento, luego poner a disposición el archivo revisado en un formato preestablecido y, finalmente, solicitar retroalimentación al usuario en relación con la calidad de la revisión encontrada con el fin de brindar retroalimentación sobre el conocimiento.
V) elegir KPI que reflejen adecuadamente el impacto de una solución sobre las implicaciones identificadas en el punto anterior;
Tenga en cuenta que en este primer paso no entraremos en cuestiones técnicas de la solución. El objetivo en esta etapa es mapear fielmente la regla de negocio prevista, es decir, las necesidades, en función de los puntos débiles identificados. El concepto “trabajos por hacer” (desarrollado en Harvard por el Prof. Clayton M. Christensen) pretende ayudarnos a centrarnos principalmente en mapear el problema, es decir, “qué es exactamente lo que pretendemos resolver”, y sólo entonces proceder con el “cómo solucionar”.
2º Entrenamiento y formación de equipos
Invierta en capacitar a su equipo para comprender y aplicar tecnologías de IA generativa. Esto puede implicar capacitación interna o asociaciones con instituciones educativas.
Existen múltiples alternativas para encontrar el mejor enfoque. Puede aprovechar modelos de IA generativa completamente listos para usar que se prestan específicamente a un caso de uso (los llamados “agentes”), o utilizar modelos previamente entrenados para adaptarlos a un caso de uso específico y una capacitación refinada en su datos corporativos exclusivamente.
Los modelos se pueden encontrar, por ejemplo, en los principales servicios en la nube del mercado o en plataformas colaborativas donde están disponibles modelos de código abierto previamente entrenados. El mejor camino a seguir dependerá de su estrategia a largo plazo y del nivel de especialización de su equipo.
Por lo tanto, su equipo debe estar familiarizado con las alternativas del mercado o, al menos, saber muy bien lo que ofrece su proveedor de nube. Contar con el apoyo de una consultoría especializada aprobada por la plataforma utilizada puede ser un camino alternativo, especialmente para la etapa de creación de prototipos y configuración de infraestructura.
3º Selección de tecnología y herramientas
En esta etapa llega el momento de proponer detalladamente la hipótesis de solución, siempre basándose en las definiciones del paso 1 anterior. Elija las herramientas y plataformas de IA generativa que mejor se adapten a sus necesidades específicas. Esto puede abarcar desde soluciones listas para usar hasta desarrollo personalizado con la ayuda de expertos en inteligencia artificial. Un buen enfoque para este paso debe tener en cuenta:
I) identificar los principales vectores que impactarán el costo de desarrollo y mantenimiento de la solución. Si es posible estimar los costos involucrados y proyectar un posible margen de contribución que brindará la solución, mucho mejor. Tenga en cuenta que aquí es fundamental tener en cuenta la estimación de la solicitud de token junto con el modelo de IA generativa, ya que cada solicitud representará centavos que, en escala, tendrán un impacto decisivo en el costo total de la aplicación (y encontrar alternativas que alivien el volumen de solicitudes, así como tener una buena negociación con su vendedor son premisas para un proyecto exitoso). Profundizar en el análisis financiero, estimando su viabilidad en base a VAN, TIR y Payback es de gran valor en este momento para evitar gastar importantes energías por parte de tu equipo en un proyecto que ya parece económicamente inviable al inicio;
II) defina su estrategia para utilizar el modelo de IA generativa: de forma simplificada, hay tres estrategias principales posibles;
a) estrategia de “tomador”, donde la solución utiliza un “agente de IA” completamente listo y capacitado para un caso de uso específico. Es la forma más rápida y “plug-and-play” de adoptar una solución de IA generativa; sin embargo, todavía hay un suministro bajo de agentes completamente listos y debe confirmar que los agentes disponibles a los que tiene acceso son perfectamente adecuados para sus necesidades. Caso de uso;
b) estrategia de “creador”, donde la solución utiliza el marco de un proveedor del mercado (un proveedor de servicios en la nube, por ejemplo), para acceder a modelos de IA generativa previamente entrenados (propiedad del propio proveedor o de terceros), para adaptarlos a formación sobre una base de datos específica para su empresa. Es necesario contar con un equipo cualificado para esta tarea, por supuesto, pero es posible encontrar apoyo de consultoría externa de empresas especializadas;
c) estrategia “modeladora”, donde la solución prevista es tan única y estratégica que usted decide crear su propio modelo de IA generativa desde cero. Este enfoque es muy complejo y sólo es relevante si se prevé una oportunidad de mercado única, donde una solución completamente patentada podría significar una ventaja competitiva decisiva para un movimiento de comercialización, ofreciendo esta solución a escala a un mercado relevante.
III) definir su base de datos: no hay “almuerzo gratis” en un viaje con IA y el punto de partida es garantizar la disponibilidad de datos de todas las fuentes involucradas en un repositorio predefinido, al que accederá el modelo en un permanente. Los datos deben estar sanos, accesibles, seguros y listos en un almacén de datos, un lago de datos, un mercado de datos o la arquitectura más conveniente para el proyecto. Mucho mejor si esta arquitectura está predefinida y ya en producción para toda su empresa, al servicio de este y cualquier otro caso de uso futuro con IA;
IV) identificar los requisitos de infraestructura: para respaldar su arquitectura y garantizar el mejor rendimiento para servir su aplicación, debe contratar recursos compatibles que deben detallarse previamente con su proveedor de nube. Como ya hemos señalado anteriormente, este es uno de los principales vectores de costes del proyecto, siendo decisivo para su éxito.
4. Desarrollo e implementación de proyectos piloto.
Implementar proyectos piloto para probar la efectividad de la IA generativa a pequeña escala antes de una implementación más amplia. Esto le ayuda a identificar desafíos y ajustar estrategias de manera eficiente. Ha llegado el momento de crear un prototipo funcional, utilizando los modelos de IA generativa disponibles en el mercado de los principales proveedores del mercado.
El prototipo debe ser útil para validar el concepto en una versión “MVP” (Producto Mínimo Viable), de tal manera que sea posible, incluso a pequeña escala, confirmar las hipótesis operativas planificadas y evaluar el impacto en las previsiones. Indicadores de éxito definidos.
5º Evaluación de resultados y escala
Evaluar los resultados de los proyectos piloto y perfeccionar los enfoques según sea necesario antes de seguir adelante. Los indicadores de éxito predefinidos deben reflejar si se están abordando las implicaciones del “dolor” empresarial original (por ejemplo, eficiencia operativa lograda, costos involucrados, satisfacción del cliente, porcentaje de acortamiento o simplificación de un flujo de trabajo, etc.).
Además de evaluar los beneficios obtenidos, también es importante considerar los siguientes aspectos en su evaluación:
- Evaluación de los costos involucrados: licencia, infraestructura, operación, equipo dedicado, etc.;
- Retorno de la inversión: tasa y tiempo de retorno, considerando el margen proporcionado durante el tiempo que el proyecto esté en operación;
- Impacto de los riesgos asociados: implicaciones éticas involucradas en respuestas generativas de IA, fugas de datos corporativos, etc.;
- Alineación con la estrategia corporativa: considerar si el proyecto está en línea con la agenda estratégica de la alta dirección o del Consejo de Administración (ejemplo: centralidad en el cliente, reducción de costos, etc.);
- Flexibilidad para expandirse a nuevas oportunidades: evalúe si su proyecto, si tiene éxito, puede extenderse a otras oportunidades adyacentes con relativa facilidad;
- Comentarios de los usuarios: considere los comentarios de sus clientes o usuarios que estuvieron expuestos a la aplicación durante el período de prueba.
Una vez validada la eficacia, comience a ampliar el uso de la IA generativa en toda su organización para maximizar el impacto. En resumen, estos pasos proporcionan un marco para incorporar con éxito la IA generativa en su empresa, impulsando la innovación y la competitividad del mercado.
7. GLOSARIO
Aprendizaje por refuerzo: modelo de IA donde los agentes aprenden a tomar decisiones mediante prueba y error para maximizar la suma de recompensas recibidas.
Retropropagación: Algoritmo fundamental para entrenar redes neuronales, ajustando pesos para minimizar la diferencia entre predicciones y resultados reales.
Sesgo: una tendencia o error sistemático en los datos o el algoritmo que puede dar lugar a predicciones injustas o incorrectas.
Big Data: Conjuntos de datos extremadamente grandes que desafían los procesos analíticos convencionales debido a su volumen, velocidad y variedad.
Aumento de datos: técnica de aumentar el volumen de datos de entrenamiento mediante la introducción de copias modificadas para aumentar la diversidad y robustez del modelo.
Aprendizaje profundo: subconjunto del aprendizaje automático que utiliza redes neuronales multicapa para aprender representaciones de datos en varios niveles de abstracción.
Deep Learning Frameworks: Plataformas y bibliotecas que facilitan la construcción, entrenamiento y validación de modelos de aprendizaje profundo.
DeepFake: técnica que utiliza el aprendizaje profundo para crear vídeos o audio falsos muy realistas, a menudo para simular la apariencia y la voz de personas reales;
Abandono: método de regularización en redes neuronales que implica la desactivación aleatoria de neuronas durante el entrenamiento para evitar el sobreajuste;
Ética de la IA: campo de estudio dedicado a las cuestiones morales que surgen con el desarrollo y uso de tecnologías de IA, centrándose en los prejuicios, la privacidad, la responsabilidad y el impacto social;
Puntuación F1: métrica que combina precisión y recuperación en una única medida armónica, especialmente útil cuando las clases están desequilibradas;
GAN (Generative Adversarial Networks): arquitectura de IA en la que dos redes neuronales, un generador y un discriminador, se entrenan simultáneamente para generar nuevos datos realistas;
IA fuerte: IA teórica con la capacidad de realizar cualquier tarea cognitiva que pueda realizar un ser humano, con potencial para razonamiento y comprensión abstractos;
IA generativa: subcampo de la IA que se centra en la creación de contenido nuevo y original, como texto, imágenes y sonidos, utilizando modelos que aprenden de los datos existentes;
IA General (General AI): tipo de inteligencia artificial capaz de comprender, aprender y aplicar conocimientos en una amplia gama de tareas, simulando la capacidad cognitiva humana, y puede realizar teóricamente cualquier tarea intelectual que un ser humano pueda realizar, adaptándose a nuevos contextos sin intervención humana directa;
IA superinteligente: forma hipotética de inteligencia artificial que supera la capacidad intelectual humana en todas las áreas relevantes, incluida la creatividad, el conocimiento general y el razonamiento social;
Función de pérdida: función utilizada al entrenar un modelo de IA para cuantificar el error entre las predicciones del modelo y los resultados esperados;
Aprendizaje automático: campo de la IA que permite que los sistemas aprendan y mejoren a partir de experiencias sin ser programados explícitamente;
Modelado musical: aplicación de inteligencia artificial que utiliza modelos para aprender estilos y patrones musicales y generar nuevas composiciones musicales;
PNL (Procesamiento del Lenguaje Natural): subcampo de la IA que se enfoca en desarrollar sistemas capaces de comprender y responder al lenguaje humano de manera útil;
Sobreajuste: situación en la que un modelo de aprendizaje automático sobreajusta los datos de entrenamiento, perdiendo la capacidad de generalizar a nuevos datos;
Precisión: proporción de verdaderos positivos en relación con todas las predicciones positivas realizadas por el modelo de IA;
Propiedad intelectual: derechos asociados con invenciones y creaciones en el campo de la IA, incluidas cuestiones de autoría y propiedad de obras creadas por máquinas;
Recordemos: proporción de verdaderos positivos identificados por el modelo en relación al número total de casos que son verdaderamente positivos;
Redes neuronales: estructuras computacionales que simulan la forma en que interactúan las neuronas humanas, diseñadas para reconocer patrones y realizar tareas específicas;
AI Security: área enfocada en garantizar que los sistemas de IA sean seguros y estables, protegidos contra ataques maliciosos y fallas técnicas;
Síntesis de imágenes: generar imágenes visuales a partir de modelos de IA que aprenden de grandes cantidades de datos visuales;
Síntesis de texto: generar texto natural y coherente a partir de datos estructurados o no estructurados utilizando modelos de IA;
Síntesis de voz: tecnología que convierte texto en habla natural, imitando la voz humana, mediante técnicas de IA;
Tokenización: proceso de dividir el texto en partes más pequeñas, llamadas tokens, preparándolas para su procesamiento en tareas de PNL;
Transferir aprendizaje: la práctica de reutilizar un modelo previamente entrenado en una tarea para acelerar el entrenamiento en otra tarea relacionada;
Transformers: arquitectura basada en mecanismos de atención, súper efectiva en tareas de PNL para comprender contextos complejos en textos;
Underfitting: condición en la que un modelo de IA es demasiado simple para capturar adecuadamente la complejidad de los datos de entrenamiento, lo que resulta en un rendimiento inadecuado;
VAE (Variational Autoencoders): tipo de red neuronal que aprende a representar datos en un espacio latente más pequeño, permitiendo generar nuevos datos que son variaciones de los datos originales.
Deja tu comentario