Cómo contratar perfiles de IA generativa

La irrupción de la IA generativa en el mundo del software ha sido tan rápida como profunda. En apenas un par de años, hemos pasado de ver demos espectaculares a integrar LLMs (Large Language Models) en productos reales, flujos de trabajo y hasta en nuestros propios sistemas de desarrollo.
Cada vez más empresas —grandes y pequeñas— están incorporando IA generativa para automatizar procesos, mejorar la experiencia de usuario o lanzar nuevos productos. Y con ello llega una nueva necesidad: encontrar y contratar a personas que sepan trabajar con estas tecnologías.
Pero, ¿qué significa eso exactamente? ¿Qué deberías valorar en un perfil que dice tener experiencia en GenAI? ¿Qué conocimientos técnicos son realmente importantes? ¿Cómo evalúas a alguien que trabaja con modelos que son, en sí mismos, cajas negras?
En este artículo queremos ayudarte a diseñar un proceso de selección efectivo para roles relacionados con IA generativa. Vamos a repasar:
- Qué tecnologías son clave y cuáles no tanto.
- Qué habilidades blandas marcan la diferencia.
- Qué tipo de experiencias previas tienen más peso.
- Cómo estructurar entrevistas y pruebas técnicas específicas para estos perfiles.
Un adelante: no todo pasa por saber programar bien. Pero tampoco basta con saber escribir prompts. La clave está en encontrar a personas con mentalidad de exploración, criterio técnico y experiencia resolviendo problemas reales con LLMs.
Qué implica trabajar en IA generativa
Una de las primeras dificultades a la hora de contratar para GenAI es que el término “IA generativa” abarca realidades muy distintas. No es lo mismo entrenar un modelo desde cero que construir una app que lo consuma vía API, o afinar un sistema RAG (Retrieval-Augmented Generation) para un caso de negocio concreto.
Por eso, antes de lanzar un proceso de selección, conviene tener claro qué tipo de problema necesitas resolver y qué tipo de perfil se ajusta mejor a ese reto.
Tipos de perfiles en IA generativa
Aunque los títulos de los puestos varían mucho, los roles más comunes que están surgiendo alrededor de la GenAI suelen encajar en una de estas categorías:
🔧 LLM Application Developer/ AI Engineer
Ingenieros y desarrolladores que integran modelos generativos (como GPT, Claude o Mistral) en productos reales. Suelen trabajar con APIs, diseñar flujos de conversación o generación, conectar bases de datos vectoriales, construir pipelines con LangChain o LlamaIndex, etc. Necesitan buenas bases de software, más que de ML puro.
🧠 Prompt Engineer / AI Interaction Designer
Personas expertas en diseñar prompts eficaces, robustos y adaptados al caso de uso. En muchos equipos, este rol está más cerca de UX o contenido que del código. Lo que importa aquí es el dominio del lenguaje, la estructura del pensamiento y la capacidad de probar, evaluar y ajustar.
🔬 Machine Learning Engineer con foco en GenAI
Perfiles más cercanos al ML clásico, pero con experiencia en fine-tuning de modelos open source, creación de embeddings personalizados o entrenamiento ligero con técnicas como LoRA o QLoRA. Importantes en equipos que quieren ir más allá del uso de APIs.
⚙️ MLOps / Infra para GenAI
Especialistas en desplegar, monitorizar y mantener aplicaciones con LLMs en producción. Conocen bien temas de costes, latencia, versionado de prompts, pipelines, etc. Clave cuando la solución basada en GenAI empieza a escalar.
No todos necesitan un PhD ni haber publicado papers
Una idea equivocada muy común: para trabajar con GenAI hace falta tener un doctorado en inteligencia artificial. En muchos casos, eso es completamente innecesario.
Para la mayoría de empresas, lo más valioso es encontrar personas que:
- Entienden las limitaciones y fortalezas de los LLMs.
- Saben traducir un problema de negocio en un flujo basado en GenAI.
- Tienen criterio técnico para elegir herramientas y evaluar resultados.
- Y sobre todo: han construido cosas con estas herramientas.
En resumen: trabajar con GenAI no es un nicho de investigación. Es un espacio cada vez más amplio, donde lo técnico, lo creativo y lo experimental se mezclan. Y como hiring manager, entender estas diferencias te ayudará a contratar perfiles con impacto real desde el día uno.
El roadmap para trabajar en desarrollo con IA es extenso y se actualiza de manera constante. Pero si quieres entender qué tecnologías, fundamentos y herramientas son las más utilizadas, aquí te dejamos esta guía paso a paso actualizada.
Tecnologías y conocimientos técnicos clave en IA
Uno de los errores más comunes al contratar perfiles para GenAI es quedarse en lo superficial: “que sepa usar GPT” o “que haya hecho algo con LangChain”. Pero en la práctica, trabajar con IA generativa implica tomar muchas decisiones técnicas complejas: qué modelo usar, cómo estructurar los datos, cómo evaluar las respuestas, cómo escalar la solución…
Estas son las tecnologías y conocimientos que realmente marcan la diferencia:
a) Lenguajes de programación
🐍 Python
Sigue siendo el lenguaje dominante en el ecosistema de IA. Prácticamente, todo lo relacionado con modelos, embeddings, pipelines o herramientas open source (LangChain, LlamaIndex, etc.) pasa por Python.
🟦 JavaScript / TypeScript
Cada vez más importante en perfiles que integran GenAI en producto. Si quieres que el modelo alimente una interfaz, un buscador o un sistema de ayuda dentro de una app web, necesitarás alguien cómodo trabajando en frontend o fullstack.
🧰 Otros útiles
- Bash/Docker para prototipado y despliegue rápido.
- Rust/Go si hay necesidad de performance o bajo nivel.
- SQL si el modelo trabaja con datos tabulares.
b) Librerías y frameworks del ecosistema GenAI
⚙️ Integración de modelos
- OpenAI API: sigue siendo la opción más popular, sobre todo para prototipos.
- Anthropic Claude, Gemini, Mistral, LLaMA: cada vez más empresas exploran alternativas por coste, privacidad o capacidad de ajuste.
- Conocer los pros y contras de cada modelo es una skill importante.
🔗 Frameworks de orquestación
- LangChain, LlamaIndex, Semantic Kernel: permiten construir flujos más complejos, con múltiples pasos, herramientas externas y control fino del comportamiento del modelo.
- Valioso cuando se necesita algo más que una simple llamada a la API.
📚 Embeddings y RAG
- Saber cómo generar, almacenar y recuperar información usando embeddings es clave para construir soluciones tipo chatbots con memoria, buscadores semánticos, sistemas de ayuda contextual.
- Conocimientos de RAG (Retrieval-Augmented Generation) marcan la diferencia en proyectos reales.
🧠 Vector databases
- Pinecone, Weaviate, Qdrant, FAISS: cada una con sus particularidades.
- No basta con “haber usado una”. Lo ideal es que la persona sepa elegir bien según el caso de uso.
🛠️ Evaluación de outputs
- Herramientas como Trulens, Guardrails, Promptfoo, o incluso LLM-as-a-judge son cada vez más comunes.
- Importante entender cómo medir calidad, robustez y coste de las respuestas.
c) Infraestructura y MLOps (orientado a GenAI)
Aunque muchas soluciones de GenAI empiezan como un prototipo, llevar un sistema a producción requiere ciertas buenas prácticas:
- Versionado de prompts y configuraciones.
- Monitorización de respuestas: latencia, coste por token, toxicidad, etc.
- Uso responsable de recursos (especialmente si usas modelos open source en local).
- Integración con pipelines CI/CD, A/B testing y logging.
¿Necesitan dominarlo todo?
No. Pero sí deberían tener criterio. En perfiles de GenAI, no se espera que sepan usar cada herramienta de memoria, sino que sepan:
- Que existe y para qué sirve.
- Cuándo usar una u otra.
- Cómo conectar las piezas para construir algo funcional.
Habilidades blandas para Gen AI
Por muy tentador que sea centrarse solo en el stack técnico, en los roles relacionados con GenAI las habilidades blandas son igual o más importantes que las puramente técnicas.
¿Por qué? Porque trabajar con LLMs no es una ciencia exacta. Los modelos son impredecibles, el comportamiento cambia según el contexto y muchas veces no hay una “respuesta correcta”, sino una solución suficientemente buena para el problema que estás resolviendo.
Necesitas gente que sepa moverse bien en esa ambigüedad. Estas son las habilidades blandas que más valor tienen:
🧠 Pensamiento sistémico y enfoque de producto
Los mejores perfiles de GenAI no se obsesionan solo con el modelo, sino con cómo ese modelo encaja en el flujo de negocio.
- ¿Dónde aporta valor?
- ¿Cómo se conecta con los datos internos?
- ¿Qué impacto tiene en la experiencia de usuario?
Saber ver el sistema completo y no solo “la parte que genera texto” marca la diferencia entre un buen prompt y un buen producto.
🧪 Mentalidad experimental
Trabajar con GenAI es, en gran parte, probar, evaluar, ajustar y repetir.
No hay verdades absolutas. Los buenos perfiles:
- Saben hacer testing estructurado.
- Documentan lo que prueban.
- No se frustran cuando el modelo “alucina”, sino que investigan por qué.
Si la persona no disfruta del caos controlado que supone iterar con modelos generativos, probablemente no encaje bien.
📣 Comunicación clara
Ya sea explicando una solución a un cliente, un error a un stakeholder o un flujo a otro developer, la claridad al comunicar es esencial.
Especialmente cuando:
- El comportamiento del sistema no es determinista.
- El output depende del diseño de prompt.
- Las decisiones deben argumentarse más allá del “lo hice así porque sí”.
Además, en equipos multidisciplinares (producto, diseño, negocio…), esta habilidad puede marcar la diferencia entre avanzar o quedarse atascado en malentendidos.
⚖️ Conciencia ética y sentido crítico
Los LLMs pueden generar contenido tóxico, sesgado o inventado. Y pueden hacerlo de forma muy convincente.
Un buen perfil de GenAI debe:
- Tener sensibilidad sobre riesgos éticos, privacidad y sesgos.
- Conocer los mecanismos de mitigación (filtros, validaciones, disclaimers).
- Y, sobre todo, ser capaz de levantar la mano si algo huele raro, aunque técnicamente funcione.
👥 Colaboración y apertura
GenAI es un campo nuevo y cambia cada semana. Por eso, la humildad y la colaboración son superpoderes.
- ¿Comparte aprendizajes con el equipo?
- ¿Está al día de nuevas herramientas o enfoques?
- ¿Tiene mentalidad de mejora continua?
No necesitas fichar a una experta mundial en LLMs. Pero sí a alguien que quiera crecer con el equipo y con la tecnología.
Qué experiencia es más valiosa y qué puedes ignorar
Una de las trampas más comunes al evaluar candidatos en GenAI es dejarse impresionar por CVs llenos de cursos, argot técnico o titulaciones académicas que luego no se traducen en experiencia práctica.
En un campo tan nuevo y cambiante como la IA generativa, lo que realmente importa es lo que la persona ha construido, probado y aprendido en el mundo real.
✅ Experiencia que sí deberías valorar
🧪 Proyectos aplicados (aunque sean personales)
¿Ha montado un bot con GPT? ¿Ha creado un buscador con RAG? ¿Ha desarrollado un asistente para su propio workflow?
Este tipo de proyectos dicen más que 3 certificaciones juntas.
Lo importante no es el tamaño del proyecto, sino que haya:
- Identificado un problema.
- Diseñado una solución con GenAI.
- Iterado sobre ella y aprendido algo en el proceso.
💡 Prototipos funcionales en producto
Si ha integrado LLMs en una aplicación real, aunque sea un MVP interno, eso demuestra:
- Entendimiento de casos de uso reales.
- Conocimiento técnico del stack.
- Experiencia en validación de resultados, gestión de errores, UX, etc.
🔧 Contribuciones open source o públicas
Participar en librerías como LangChain o LlamaIndex, publicar notebooks en GitHub o compartir prompts útiles en foros como Hugging Face o Discord son señales de:
- Iniciativa.
- Pasión por el campo.
- Conocimiento vivo, no solo teórico.
🧠 Experiencia resolviendo problemas reales con LLMs
Más allá de “he usado GPT”, lo importante es:
- ¿Qué problemas resolvió?
- ¿Qué decisiones técnicas tomó?
- ¿Qué limitaciones encontró y cómo las sorteó?
🚩 Experiencia que no aporta tanto
🎓 Cursos teóricos sin aplicación práctica
Certificados de plataformas online pueden ser útiles para aprender, pero no garantizan comprensión profunda ni capacidad de ejecución.
Haz preguntas del tipo:
- ¿Qué hiciste con lo que aprendiste?
- ¿Lo aplicaste en algún proyecto?
📚 Artículos o papers sin aterrizaje en producto
Especialmente en perfiles con background académico, es común ver muchas publicaciones.
Eso no está mal, pero:
- ¿Sabe construir algo útil con modelos?
- ¿Puede trabajar en equipos de producto?
- ¿Tiene experiencia con datos reales?
🧾 “Experiencia en IA” demasiado ambigua
Muchos CVs mencionan “experiencia en IA” que en realidad se refiere a:
- Análisis de datos clásico.
- Modelos de ML tradicionales (árboles, regresiones, etc.).
- Roles sin relación con LLMs ni generación de contenido.
👉 Pregunta siempre qué modelo, qué herramienta y qué problema resolvieron.
¿Y si no tienen experiencia laboral directa con GenAI?
Está bien. Es un campo emergente. Lo importante es:
- Que hayan tenido iniciativa para experimentar por su cuenta.
- Que demuestren curiosidad, criterio y capacidad de aprendizaje.
- Que sepan hablar con propiedad de las herramientas y de los límites de los modelos.
En resumen: no busques currículums espectaculares. Busca rastros de aprendizaje activo, aplicación práctica y pensamiento crítico. Quien ya ha jugado con esto por su cuenta, probablemente será quien más rápido te ayude a construir con GenAI.
Cómo diseñar un proceso de selección para perfiles de GenAI
Los perfiles orientados a IA generativa no encajan del todo ni en los procesos clásicos de ingeniería ni en los de ciencia de datos. Si usas las mismas entrevistas que para un backend o un data scientist tradicional, vas a perder señales clave (y probablemente a los mejores candidatos).
Aquí tienes algunas ideas para diseñar un proceso que te permita identificar a quienes realmente pueden aportar valor con GenAI.
🎯 Empieza por definir bien qué necesitas
Antes de lanzar una oferta, aclara:
- ¿Vas a consumir modelos vía API o necesitas a alguien que entrene/fine-tune?
- ¿El perfil se va a integrar en un equipo de producto o trabajará en I+D?
- ¿La solución tiene que estar en producción o es solo exploratoria?
Esto te dirá qué nivel de ingeniería, UX, MLOps o ML profundo necesitas.
👉 Una buena definición de rol te ahorra muchas entrevistas sin sentido.
🧩 Diseña scorecards específicas
Crea una matriz de evaluación basada en:
- Tecnologías clave para tu stack (¿OpenAI API? ¿LangChain? ¿Pinecone?).
- Habilidades blandas necesarias (¿va a trabajar con negocio? ¿con producto?).
- Tipo de experiencia deseada (¿ha resuelto problemas parecidos? ¿ha desplegado algo?).
Consejo Manfred: no evalúes con “sensaciones”, evalúa con criterios concretos.
🧪 Ejercicios técnicos útiles
Olvídate de algoritmos o preguntas de leetcode. Lo que necesitas ver es cómo piensa y construye con LLMs.
Algunas ideas:
- Diseño de solución: “Tienes que crear un sistema de búsqueda inteligente sobre una base de documentación interna. ¿Cómo lo harías con GenAI?”.
- Evaluación de prompts: muestra ejemplos y pide mejoras o alternativas.
- Code review de una app que use LLMs: ¿detecta errores comunes? ¿sabe modularizar prompts? ¿piensa en coste o latencia?
- Mini ejercicio práctico: una app en Streamlit que integre una llamada a un LLM y procese la respuesta.
Lo importante no es que termine todo, sino cómo razona, justifica, prueba y adapta lo que construye.
👀 Evalúa más allá del código
Además del ejercicio técnico, incluye una parte donde puedas evaluar:
- Comunicación: ¿explica bien sus decisiones? ¿sabe simplificar?
- Mentalidad iterativa: ¿propone mejoras? ¿cuestiona supuestos?
- Conciencia de riesgos: ¿habla de sesgos, errores, uso responsable?
Puedes usar preguntas situacionales como:
“¿Qué harías si el modelo empieza a devolver respuestas ofensivas o erróneas de forma intermitente?”
“¿Cómo priorizarías coste vs. calidad en un sistema que usa GenAI para atención al cliente?”
🔄 Bonus: incluye una fase de pairing o prototipado conjunto
Si puedes permitirte una sesión en la que la persona colabore con alguien de tu equipo para construir o refinar una pequeña funcionalidad, ganarás una señal valiosísima:
- ¿Cómo colabora?
- ¿Cómo reacciona a la incertidumbre?
- ¿Cómo piensa en voz alta?
Tu proceso no necesita ser perfecto ni complejo. Solo necesita estar alineado con lo que esperas de la persona en el día a día. Y en GenAI, eso significa saber explorar, construir y comunicar, no memorizar modelos ni recitar papers.
Errores comunes al contratar para IA generativa
Cuando una tecnología es tan nueva y cambia tan rápido como la IA generativa, es fácil equivocarse al definir roles o evaluar perfiles. Muchos procesos de selección para GenAI fallan porque intentan aplicar las mismas reglas que funcionaban en ingeniería tradicional o en ciencia de datos clásica.
Aquí van algunos de los errores más comunes (y cómo evitarlos):
❌ 1. Buscar “experiencia en IA” sin especificar
“Buscamos alguien con experiencia en inteligencia artificial” es, a día de hoy, demasiado vago.
Puede significar:
- ML clásico (regresiones, árboles, clustering…).
- Procesamiento de imágenes.
- Investigación pura.
- O cero experiencia con modelos generativos.
👉 Sé específico: ¿ha trabajado con LLMs? ¿ha construido algo con GPT, Claude o Mistral? ¿conoce RAG? ¿sabe evaluar prompts?
❌ 2. Pensar que saber usar ChatGPT ya es suficiente
Sí, muchas personas están explorando GenAI desde herramientas como ChatGPT. Y eso está bien como puerta de entrada.
Pero usar una interfaz no es lo mismo que saber construir sistemas robustos con GenAI. Si el candidato no ha trabajado con APIs, no ha diseñado prompts complejos, ni ha resuelto problemas reales… probablemente no esté listo para un rol técnico.
Usar ChatGPT ≠ desarrollar con LLMs.
❌ 3. Contratar solo por background académico
Hay perfiles brillantes con doctorados en NLP, pero eso no garantiza impacto en producto.
Muchas veces, quienes realmente están construyendo cosas útiles con GenAI vienen de backgrounds mixtos:
- Ingeniería.
- Producto.
- UX conversacional.
- Startups donde han tenido que “jugar” con estas herramientas desde el principio.
👉 Valora más la experiencia aplicada que los títulos.
❌ 4. Ignorar la parte de integración y producto
Es tentador pensar que el reto está en el modelo, pero en la mayoría de los casos el valor está en cómo lo integras en el flujo de negocio:
- ¿Qué datos le pasas?
- ¿Cómo evalúas la respuesta?
- ¿Cómo afecta a la UX?
No necesitas un experto en arquitectura de transformers. Necesitas alguien que entienda cómo encajar GenAI en tu stack y en tu producto.
❌ 5. Subestimar la necesidad de buenas prácticas
Al tratarse de tecnología “mágica” y nueva, algunas empresas lanzan prototipos rápidos y… lo dejan ahí.
Pero si vas a poner GenAI en producción, necesitas:
- Versionado de prompts.
- Monitorización de outputs.
- Evaluación continua.
- Control de costes y fallbacks.
👉 Si la persona no tiene sensibilidad por estos temas, tu solución se romperá en producción o costará mucho más de lo previsto.
❌ 6. No evaluar habilidades blandas
Como vimos antes, los perfiles de GenAI trabajan en entornos ambiguos, iterativos y con mucho trabajo en equipo. Si solo evalúas su conocimiento técnico, te perderás señales clave:
- ¿Sabe comunicar incertidumbre?
- ¿Tiene criterio ético?
- ¿Colabora o impone soluciones?
👉 Añade entrevistas situacionales, sesiones de pairing o revisiones técnicas compartidas.
Evitar estos errores no solo te ahorrará tiempo y frustración. También te ayudará a atraer mejor talento, con roles claros, procesos cuidados y retos reales.
Caso práctico: contratar a una persona para construir un asistente con GenAI
Contexto:
Una startup SaaS de tamaño medio quería integrar IA generativa en su plataforma de atención al cliente. La idea era desarrollar un asistente que resumiera tickets, sugiriera respuestas y ayudara a priorizar incidencias. Nada loco, pero sí con impacto directo en el equipo de soporte.
El reto: no querían saturar al equipo con esta tarea exploratoria pero tampoco sabían a quién contratar para llevarlo a cabo.
🔍 El primer error: buscar un “científico de datos”
Empezaron publicando una oferta muy genérica: “Buscamos data scientist con experiencia en IA”.
Recibieron decenas de CVs, la mayoría con experiencia en modelos clásicos (scikit-learn, clustering, dashboards, etc.), pero nadie había trabajado con LLMs ni con generación de texto.
Tras algunas entrevistas frustrantes, se dieron cuenta de que:
- No necesitaban alguien experto en estadística.
- Necesitaban a alguien capaz de conectar un LLM con sus datos, su UI y su lógica de negocio.
✅ Reenfocar el proceso
Redefinieron la oferta como “LLM Engineer / GenAI Developer”, y cambiaron el proceso:
- Reescribieron la descripción del rol incluyendo herramientas clave (OpenAI, LangChain, RAG).
- Añadieron un ejercicio práctico: diseñar un flujo para resumir tickets y sugerir respuestas en función de su base de datos de incidencias previas.
- Evaluaron habilidades blandas: capacidad para explicar decisiones, criterio con el coste de llamadas a LLMs, y conocimiento de posibles errores del modelo.
💡 El perfil que funcionó
Finalmente, ficharon a una desarrolladora que:
- No tenía un máster en IA, pero sí varios proyectos personales con GPT-4, uno de ellos muy similar al caso de soporte.
- Sabía usar LangChain y Pinecone, y ya había desplegado una app con Streamlit.
- Tenía mentalidad de producto: sabía priorizar funcionalidades y comunicar bien con el equipo de soporte.
En pocas semanas:
- Montó un prototipo funcional.
- Lo conectó con los datos reales.
- Recogió feedback y afinó los prompts para mejorar la calidad.
- Añadió logs y métricas para poder evaluar la herramienta.
🚀 Resultado
El asistente generó un ahorro real de tiempo en el equipo de soporte (más del 40 % en tareas repetitivas), y sentó las bases para explorar otros usos internos de GenAI.
Y lo mejor: no necesitaron entrenar ningún modelo propio. Solo alguien con criterio, capacidad de construir, y experiencia aplicada.
¿Y cómo puede ayudarte Manfred a contratar talento en IA generativa?
Contratar bien en IA generativa es complicado. No solo porque el campo evoluciona a una velocidad brutal, sino porque muchas veces ni siquiera está claro qué perfil necesitas realmente:
¿Una persona que sepa integrar LLMs en tu producto? ¿Alguien que construya pipelines con LangChain y vector databases? ¿O un perfil más cercano a UX y contenido, capaz de diseñar experiencias conversacionales robustas?
En Manfred llevamos años ayudando a empresas tecnológicas a construir equipos técnicos desde la base. Y en el último año hemos acompañado a startups, scale ups y grandes compañías a incorporar roles como:
- LLM Application Developer/ AI Engineer: ingenieros y desarrolladores que integran modelos generativos en producto real.
- Prompt Engineer / AI Interaction Designer: perfiles híbridos que saben cómo diseñar prompts efectivos y seguros.
- GenAI Product Engineer: personas con background técnico y visión de producto que saben cómo aplicar GenAI a problemas reales.
- Machine Learning Engineer con experiencia en modelos generativos: para equipos que necesitan ir más allá de APIs y explorar fine-tuning o RAG avanzado.
- MLOps para GenAI: especialistas en llevar a producción sistemas que usan LLMs, con foco en rendimiento, coste, versión de prompts y monitorización.
🧠 ¿Qué hacemos diferente?
- Te ayudamos a definir el rol con precisión, evitando descripciones genéricas que atraen candidatos poco alineados.
- Buscamos perfiles con experiencia aplicada en GenAI, no solo gente que ha hecho un curso.
- Evaluamos habilidades blandas y visión de producto, no solo conocimiento técnico.
- Y sobre todo, trabajamos con transparencia y cuidando a empresas y candidatos, porque así es como creemos que deben funcionar los procesos de selección.
Si estás explorando cómo incorporar IA generativa a tu producto y necesitas ayuda para fichar al perfil adecuado, podemos ayudarte.
Solo tienes que escribirnos, contarnos tu contexto y nos pondremos manos a la obra 👉 getmanfred.com/contacto o hablamos@getmanfred.com.
Contratar roels de AI requiere de nuevas habilidades
🛠️ Consejos finales para tu próximo proceso
✅ Define bien el problema que quieres resolver.
No todo requiere fine-tuning. Muchas veces, una buena integración vía API es más que suficiente.
✅ Busca señales de experiencia aplicada.
Proyectos personales, MVPs, experimentos con feedback real… no hay mejor filtro que el “enséñame qué has construido”.
✅ Valora habilidades blandas tanto como técnicas.
Comunicación, pensamiento iterativo, ética y visión de producto son igual de importantes que saber usar LangChain.
✅ Diseña pruebas técnicas que reflejen la realidad del trabajo.
No te hace falta un algoritmo de grafos, te hace falta alguien que sepa cuándo elegir GPT-4 y cuándo no.
✅ Evita los perfiles que se quedan solo en el hype.
Prompts bonitos en LinkedIn no son lo mismo que soluciones en producción.
El talento en GenAI no es escaso (la mayoría de desarrolladores se adaptan a las nuevas tecnologías mucho más fácil de lo que pensamos), pero sí es difícil de identificar si no sabes lo que estás buscando. Esperamos que esta guía te haya dado el marco necesario para tomar mejores decisiones y atraer a los perfiles que realmente pueden ayudarte a construir.
Y si te surge la duda de si una persona encaja o no, pregunta siempre esto:
“¿Qué problema real has resuelto usando IA generativa?”
Si la respuesta te convence, probablemente estés cerca de hacer una muy buena contratación.