RAG offers a new way to maximize the capabilities of large language models (LLMs) to produce more accurate, context-aware, and informative responses. Join Akash Shankaran (Intel), Ron Abellera (Microsoft), and Juan Pablo Norena (Canonical) for a tutorial on how RAG can enhance your LLMs. The session will explore how to optimize LLMs with RAG using Charmed OpenSearch, which can serve multiple services like data ingestion, model ingestion, vector database, retrieval and ranking, and LLM connector. We will also show the architecture of our RAG deployment in Microsoft® Azure Cloud. Notably, the vector search capabilities of RAG are enhanced by Intel AVX® Acceleration, delivering faster processing and high-throughput performance for the RAG workflow.

Hora

16:00 - 17:00 hs GMT+1

Suscripción

Organizador

Ubuntu and Canonical
Compartir
Enviar a un amigo
Mi email *
Email destinatario *
Comentario *
Repite estos números *
Control de seguridad
Enero / 2025 253 webinars
Lunes
Martes
Miércoles
Jueves
Viernes
Sábado
Domingo
Lun 30 de Enero de 2025
Mar 31 de Enero de 2025
Mié 01 de Enero de 2025
Jue 02 de Enero de 2025
Vie 03 de Enero de 2025
Sáb 04 de Enero de 2025
Dom 05 de Enero de 2025
Lun 06 de Enero de 2025
Mar 07 de Enero de 2025
Mié 08 de Enero de 2025
Jue 09 de Enero de 2025
Vie 10 de Enero de 2025
Sáb 11 de Enero de 2025
Dom 12 de Enero de 2025
Lun 13 de Enero de 2025
Mar 14 de Enero de 2025
Mié 15 de Enero de 2025
Jue 16 de Enero de 2025
Vie 17 de Enero de 2025
Sáb 18 de Enero de 2025
Dom 19 de Enero de 2025
Lun 20 de Enero de 2025
Mar 21 de Enero de 2025
Mié 22 de Enero de 2025
Jue 23 de Enero de 2025
Vie 24 de Enero de 2025
Sáb 25 de Enero de 2025
Dom 26 de Enero de 2025
Lun 27 de Enero de 2025
Mar 28 de Enero de 2025
Mié 29 de Enero de 2025
Jue 30 de Enero de 2025
Vie 31 de Enero de 2025
Sáb 01 de Enero de 2025
Dom 02 de Enero de 2025

Publicidad

Lo más leído »

Publicidad

Más Secciones »

Hola Invitado