Cinco formas en que los líderes empresariales pueden utilizar grandes modelos lingüísticos para desbloquear nuevas posibilidades
HogarHogar > Blog > Cinco formas en que los líderes empresariales pueden utilizar grandes modelos lingüísticos para desbloquear nuevas posibilidades

Cinco formas en que los líderes empresariales pueden utilizar grandes modelos lingüísticos para desbloquear nuevas posibilidades

Jul 10, 2023

Dirígete a nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrate aquí

Es muy poco probable que te hayas perdido los rumores que rodean a la IA generativa y, específicamente, los modelos de lenguajes grandes (LLM, por sus siglas en inglés) como ChatGPT. En los últimos meses, estos han sido temas candentes en todas partes, desde las redes sociales hasta las noticias y las conversaciones cotidianas, y apenas hemos comenzado a aprender de qué podría ser capaz la IA generativa.

En términos generales, la IA gen se refiere a una categoría de técnicas de aprendizaje automático (ML) que pueden crear contenido como imágenes, música y texto que se parece mucho al contenido creado por humanos. Los LLM, por otro lado, son redes neuronales con miles de millones de parámetros que han sido entrenados con grandes cantidades de datos de texto, lo que les permite comprender, procesar y generar un lenguaje similar al humano.

Juntas, estas tecnologías ofrecen una amplia gama de aplicaciones que tienen el potencial de remodelar diversas industrias y amplificar la calidad de las interacciones entre humanos y máquinas. Al explorar estas aplicaciones, los propietarios de negocios y los tomadores de decisiones empresariales pueden obtener una valiosa inspiración, impulsar un crecimiento acelerado y lograr resultados tangiblemente mejorados a través de la creación rápida de prototipos. La ventaja adicional de la IA genérica es que la mayoría de estas aplicaciones requieren una experiencia mínima y no requieren capacitación adicional en el modelo.

Descargo de responsabilidad rápido: las personas a menudo tienden a asociar la generación de IA exclusivamente con ChatGPT, pero hay numerosos modelos de otros proveedores disponibles, como T5 de Google, Llama de Meta, Falcon de TII y Claude de Anthropic. Si bien la mayoría de las aplicaciones analizadas en este artículo han utilizado ChatGPT de OpenAI, puede adaptar y cambiar fácilmente el LLM subyacente para alinearlo con su presupuesto informático específico y latencia (qué tan rápido necesita que su modelo genere terminaciones; los modelos más pequeños permiten una carga más rápida). y reducir la latencia de inferencia) y tareas posteriores.

VB Transform 2023 bajo demanda

¿Te perdiste una sesión de VB Transform 2023? Regístrese para acceder a la biblioteca bajo demanda de todas nuestras sesiones destacadas.

Los LLM demuestran capacidades impresionantes en muchas tareas listas para usar, como traducción y resúmenes, sin requerir una personalización inicial. La razón por la que son tan buenos en estas tareas genéricas es que el modelo básico subyacente ha sido entrenado en conjuntos de datos grandes pero genéricos. Sin embargo, es posible que esta competencia no se extienda perfectamente a tareas específicas de un dominio, incluido, por ejemplo, proporcionar respuestas sobre el informe anual de su empresa. Aquí es donde la Generación Aumentada de Recuperación (RAG) entra en escena.

RAG es un marco para construir sistemas basados ​​en LLM que utilizan fuentes de datos externas. RAG le brinda a un LLM acceso a datos que no habría visto durante la capacitación previa, pero que son necesarios para brindar correctamente respuestas relevantes y precisas. RAG permite que modelos de lenguaje como ChatGPT brinden mejores respuestas a preguntas de dominios específicos al combinar sus habilidades de procesamiento del lenguaje natural (NLP) con conocimiento externo, mitigando los casos de generación de información inexacta o "alucinaciones". Lo hace mediante:

Este enfoque hace que los LLM sean más versátiles y útiles en diversos dominios y aplicaciones, incluida la respuesta a preguntas, la creación de contenido y la conversación interactiva con acceso a datos en tiempo real. Podurama, una aplicación de podcasts, ha aprovechado técnicas similares para crear sus chatbots de recomendación impulsados ​​por inteligencia artificial. Estos robots sugieren hábilmente programas relevantes basados ​​en las consultas de los usuarios, extrayendo información de las transcripciones de podcasts para refinar sus recomendaciones.

Este enfoque también es valioso en la gestión de crisis. PagerDuty, una plataforma de respuesta a incidentes SaaS, utiliza LLM para generar resúmenes de incidentes utilizando datos básicos como el título, la gravedad u otros factores, y aumentándolos con datos internos de Slack, donde los respondedores discuten detalles y comparten actualizaciones de solución de problemas para refinar la calidad de los resúmenes. .

Si bien RAG puede parecer complejo, la biblioteca LangChain ofrece a los desarrolladores las herramientas necesarias para implementar RAG y crear sistemas sofisticados de respuesta a preguntas. (En muchos casos, solo necesita una línea de código para comenzar). LangChain es una biblioteca poderosa que puede aumentar y mejorar el rendimiento del LLM en tiempo de ejecución al brindar acceso a fuentes de datos externas o conectarse a API existentes de otras aplicaciones.

Cuando se combina con LLM de código abierto (como Llama 2 o BLOOM), RAG emerge como una arquitectura excepcionalmente potente para manejar documentos confidenciales. Lo que es particularmente interesante es que LangChain cuenta con más de 120 integraciones (al momento de escribir este artículo), lo que permite una funcionalidad perfecta con datos estructurados (SQL), contenido no estructurado (PDF), fragmentos de código e incluso videos de YouTube.

Al igual que utilizar fuentes de datos externas, los LLM pueden establecer conexiones con aplicaciones externas adaptadas a tareas específicas. Esto es particularmente valioso cuando un modelo ocasionalmente produce imprecisiones debido a información desactualizada. Por ejemplo, al interrogar al actual Primer Ministro del Reino Unido, ChatGPT podría seguir refiriéndose a Boris Johnson, aunque dejó el cargo a finales de 2022. Esta limitación surge porque el conocimiento del modelo se fija en su período de preentrenamiento y no abarca el post-entrenamiento. -Eventos de formación como el nombramiento de Rishi Sunak.

Para abordar estos desafíos, los LLM se pueden mejorar integrándolos con el mundo externo a través de agentes. Estos agentes sirven para mitigar la ausencia de acceso a Internet inherente a los LLM, permitiéndoles interactuar con herramientas como una API meteorológica (para datos meteorológicos en tiempo real) o SerpAPI (para búsquedas web). Un ejemplo notable es el chatbot de Expedia, que guía a los usuarios a descubrir y reservar hoteles, responder consultas sobre alojamiento y ofrecer sugerencias de viajes personalizadas.

Otra aplicación interesante consiste en el etiquetado automático de tweets en tiempo real con atributos específicos como sentimiento, agresión y lenguaje. Desde una perspectiva de marketing y publicidad, un agente que se conecta a herramientas de comercio electrónico puede ayudar al LLM a recomendar productos o paquetes según los intereses y el contenido del usuario.

Los LLM se utilizan comúnmente de forma aislada para la mayoría de las aplicaciones. Sin embargo, recientemente el encadenamiento LLM ha ganado fuerza para aplicaciones complejas. Implica vincular varios LLM en secuencia para realizar tareas más complejas. Cada LLM se especializa en un aspecto específico y colaboran para generar resultados completos y refinados.

Este enfoque se ha aplicado en la traducción de idiomas, donde los LLM se utilizan sucesivamente para convertir texto de un idioma a otro. Empresas como Microsoft han propuesto el encadenamiento LLM para servicios de traducción en el caso de idiomas de bajos recursos, lo que permite traducciones más precisas y contextuales de palabras raras.

Este enfoque también puede ofrecer varios casos de uso valiosos en otros dominios. Para las empresas orientadas al consumidor, el encadenamiento de LLM puede crear una experiencia dinámica de atención al cliente que puede mejorar las interacciones con los clientes, la calidad del servicio y la eficiencia operativa.

Por ejemplo, el primer LLM puede clasificar las consultas de los clientes y categorizarlas, pasándolas a LLM especializados para obtener respuestas más precisas. En la fabricación, el encadenamiento de LLM se puede emplear para optimizar los procesos de la cadena de suministro de un extremo a otro mediante el encadenamiento de LLM especializados para la previsión de la demanda, la gestión de inventario, la selección de proveedores y la evaluación de riesgos.

Antes de la aparición de los LLM, la extracción de entidades se basaba en enfoques de aprendizaje automático intensivos en mano de obra que implicaban la recopilación de datos, el etiquetado y la capacitación de modelos complejos. Este proceso fue engorroso y requirió recursos. Sin embargo, con los LLM, el paradigma ha cambiado. Ahora, la extracción de entidades se simplifica a un simple mensaje, donde los usuarios pueden consultar sin esfuerzo el modelo para extraer entidades del texto. Más interesante aún, al extraer entidades de texto no estructurado como archivos PDF, incluso puede definir un esquema y atributos de interés dentro del mensaje.

Los ejemplos potenciales incluyen instituciones financieras que pueden utilizar LLM para extraer entidades financieras cruciales como nombres de empresas, símbolos de cotización y cifras financieras de artículos de noticias, lo que permite un análisis de mercado oportuno y preciso. De manera similar, las agencias de publicidad/marketing pueden utilizarlo para administrar sus activos digitales mediante el empleo de extracción de entidades impulsada por LLM para categorizar guiones publicitarios, actores, ubicaciones y fechas, lo que facilita la indexación eficiente de contenido y la reutilización de activos.

Si bien recibir respuestas directas de los LLM es indudablemente valioso, la opacidad del enfoque de caja negra a menudo genera dudas entre los usuarios. Además, cuando nos enfrentamos a una respuesta inexacta a una consulta compleja, identificar el paso exacto del fracaso se convierte en un desafío. Un desglose sistemático del proceso podría ser de gran ayuda en el proceso de depuración. Aquí es precisamente donde entra en juego el marco Razonar y Actuar (ReAct), que ofrece una solución a estos desafíos.

ReAct hace hincapié en el razonamiento paso a paso para que el LLM genere soluciones como lo haría un humano. El objetivo es hacer que el modelo piense en tareas como lo hacen los humanos y explique su razonamiento utilizando el lenguaje. Se puede poner en práctica fácilmente este enfoque, ya que generar indicaciones de ReAct es una tarea sencilla que involucra anotadores humanos que expresan sus pensamientos en lenguaje natural junto con las acciones correspondientes que han ejecutado. Con sólo un puñado de casos de este tipo, el modelo aprende a generalizar bien para nuevas tareas.

Inspirándose en este marco, muchas empresas de tecnología educativa están probando herramientas para ofrecer a los estudiantes asistencia personalizada con los trabajos de curso y las tareas, y a los instructores planes de lecciones basados ​​en inteligencia artificial. Con este fin, Khan Academy desarrolló Khanmigo, un chatbot diseñado para guiar a los estudiantes a través de problemas matemáticos y ejercicios de codificación. En lugar de simplemente dar respuestas cuando se les solicita, Khanmigo fomenta la resolución reflexiva de problemas guiando a los estudiantes a través del proceso de razonamiento. Este enfoque no sólo ayuda a prevenir el plagio sino que también permite a los estudiantes captar conceptos de forma independiente.

Si bien el debate puede estar en curso sobre el potencial de la IA para reemplazar a los humanos en sus roles o el eventual logro de la singularidad tecnológica (como lo predijo el padrino de la IA, Geoffrey Hinton), una cosa sigue siendo cierta: los LLM sin duda desempeñarán un papel fundamental en agilizar diversas tareas en una variedad de dominios. Tienen el poder de mejorar la eficiencia, fomentar la creatividad y perfeccionar los procesos de toma de decisiones, al mismo tiempo que simplifican tareas complejas.

Para los profesionales que desempeñan diversos roles tecnológicos, como científicos de datos, desarrolladores de software y propietarios de productos, los LLM pueden ofrecer herramientas valiosas para optimizar los flujos de trabajo, recopilar información y desbloquear nuevas posibilidades.

Varshita Sher es científica de datos, bloguera dedicada y curadora de podcasts, y dirige el equipo de PNL e IA generativa en Haleon.

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podrías considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers

Dirígete a nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrate aquí