Fundamentos de RAG
¡Olvídate de Ctrl+F! 🤯 Con RAG, tus documentos responderán a tus preguntas directamente. 😎 Tutorial paso a paso con Hugging Face y ChromaDB. ¡Libera el poder de la IA (y presume con tus amigos)! 💪
Apasionado de la Inteligencia Artificial y la programación. En esta página dejarás de ver cómo usar la IA sino que aprenderás a cómo crear IA y mucho más en español
¡Espero que te guste!
Entra y aprende todo lo que puedas
Posts
Proyectos
Dockers IA
Tips
Datasets
2024-09/actualidad
AI Tech lead. Liderazgo técnico, supervisión de desarrollo y colaboración en la correcta gestión de proyectos. Propuesta de nuevas soluciones.
2022-09/2024-09
Machine Learning Engineer, desarrollo de algoritmos de vision para vehículo autónomo y liderazgo en sistema de RAG para obtener información de documentación
2017-10/2022-07
Desarrollo de IA, HW y FW.
2014-05/2017-10
2013-01/2014-05
Ayuda a project manager en gestión de proyectos. Desarrollo HW y FW.
¡Olvídate de Ctrl+F! 🤯 Con RAG, tus documentos responderán a tus preguntas directamente. 😎 Tutorial paso a paso con Hugging Face y ChromaDB. ¡Libera el poder de la IA (y presume con tus amigos)! 💪
😠 ¿Tus commits parecen escritos en lenguaje alienígena? 👽 ¡Únete al club! 😅 Aprende Conventional Commits en Python y deja de torturar a tu equipo con mensajes crípticos. git-changelog y commitizen serán tus nuevos mejores amigos. 🤝
¿Alguna vez has hablado con un LLM y te ha respondido algo que suena como si hubiera estado bebiendo café de máquina durante toda la noche? 😂 ¡Eso es lo que llamamos una alucinación en el mundo de los LLMs! Pero no te preocupes, porque no es que tu modelo de lenguaje esté loco (aunque a veces puede parecerlo 🤪). La verdad es que los LLMs pueden ser un poco... creativos cuando se trata de generar texto. Pero gracias a DoLa, un método que utiliza capas de contraste para mejorar la factibilidad de los LLMs, podemos evitar que nuestros modelos de lenguaje se conviertan en escritores de ciencia ficción 😂. En este post, te explicaré cómo funciona DoLa y te mostraré un ejemplo de código para que puedas entender mejor cómo hacer que tus LLMs sean más fiables y menos propensos a inventar historias. ¡Vamos a salvar a nuestros LLMs de la locura y hacer que sean más útiles! 🚀
Python
Pytorch
HugginFace
Langchain
Ollama
Astro
Docker
Terminal
Git
Conda
Python
Pytorch
HugginFace
Langchain
Ollama
Astro
Docker
Terminal
Git
Conda
Astro
Ollama
Langchain
HugginFace
Pytorch
Python
Conda
Git
Terminal
Docker
Astro
Ollama
Langchain
HugginFace
Pytorch
Python
Conda
Git
Terminal
Docker
Los espacios de Hugging Face nos permite ejecutar modelos con demos muy sencillas, pero ¿qué pasa si la demo se rompe? O si el usuario la elimina? Por ello he creado contenedores docker con algunos espacios interesantes, para poder usarlos de manera local, pase lo que pase. De hecho, es posible que si pinchas en alún botón de ver proyecto te lleve a un espacio que no funciona.
Enciéndeme
Espacio para calcular la memoria necesaria para ejecutar un modelo
Tu compañero Manolo hace código que cuesta verlo? Pásale este formateador de código que te enseño en este post! Entra y aprende cómo formatear código para dejarlo más entendible. No vamos a solucionar los problemas de Manolo, pero tu al menos no vas a sufrir al leerlo
Declarar redes neuronales de forma clara en Pytorch
Dataset de chistes en inglés
Dataset con traducciones de inglés a español
Dataset con películas y series de Netflix