RAG offers a new way to maximize the capabilities of large language models (LLMs) to produce more accurate, context-aware, and informative responses. Join Akash Shankaran (Intel), Ron Abellera (Microsoft), and Juan Pablo Norena (Canonical) for a tutorial on how RAG can enhance your LLMs. The session will explore how to optimize LLMs with RAG using Charmed OpenSearch, which can serve multiple services like data ingestion, model ingestion, vector database, retrieval and ranking, and LLM connector. We will also show the architecture of our RAG deployment in Microsoft® Azure Cloud. Notably, the vector search capabilities of RAG are enhanced by Intel AVX® Acceleration, delivering faster processing and high-throughput performance for the RAG workflow.

Hora

16:00 - 17:00 hs GMT+1

Organizador

Ubuntu and Canonical
Compartir
Enviar a un amigo
Mi email *
Email destinatario *
Comentario *
Repite estos números *
Control de seguridad
Abril / 2025 344 webinars
Lunes
Martes
Miércoles
Jueves
Viernes
Sábado
Domingo
Lun 31 de Abril de 2025
Mar 01 de Abril de 2025
Mié 02 de Abril de 2025
Jue 03 de Abril de 2025
Vie 04 de Abril de 2025
Sáb 05 de Abril de 2025
Dom 06 de Abril de 2025
Lun 07 de Abril de 2025
Mar 08 de Abril de 2025
Mié 09 de Abril de 2025
Jue 10 de Abril de 2025
Vie 11 de Abril de 2025
Sáb 12 de Abril de 2025
Dom 13 de Abril de 2025
Lun 14 de Abril de 2025
Mar 15 de Abril de 2025
Mié 16 de Abril de 2025
Jue 17 de Abril de 2025
Vie 18 de Abril de 2025
Sáb 19 de Abril de 2025
Dom 20 de Abril de 2025
Lun 21 de Abril de 2025
Mar 22 de Abril de 2025
Mié 23 de Abril de 2025
Jue 24 de Abril de 2025
Vie 25 de Abril de 2025
Sáb 26 de Abril de 2025
Dom 27 de Abril de 2025
Lun 28 de Abril de 2025
Mar 29 de Abril de 2025
Mié 30 de Abril de 2025
Jue 01 de Abril de 2025
Vie 02 de Abril de 2025
Sáb 03 de Abril de 2025
Dom 04 de Abril de 2025

Publicidad

Lo más leído »

Publicidad

Más Secciones »

Hola Invitado