1 Inteligencia Artificial Generativa


La Inteligencia Artificial Generativa (Generative AI) es una rama de la inteligencia artificial diseñada para crear contenido nuevo y original a partir de datos existentes.

En lugar de limitarse a reconocer patrones o clasificar información (como hace la IA tradicional), la IA generativa aprende las estructuras subyacentes de los datos y luego genera ejemplos nuevos que podrían haber pertenecido al conjunto original.

🔹 En otras palabras:

La IA generativa no solo predice o detecta, sino que produce: texto, imágenes, sonidos, código, moléculas o incluso datos sintéticos.

Mito / Confusión Realidad
“Es una IA que simplemente busca en internet o copia información.” No. Los modelos generativos no buscan ni copian; generan contenido nuevo basado en patrones aprendidos.
“Es un motor de búsqueda avanzado.” No. ChatGPT o Gemini no “buscan”, sino que predicen la siguiente palabra más probable en función del contexto del texto previo.
“Produce conocimiento real o verificado.” No necesariamente. La IA generativa no entiende ni valida la verdad; su salida depende de los datos de entrenamiento y del diseño del prompt.
“Siempre usa datos reales o personales.” Falso. Muchos modelos pueden trabajar con datos sintéticos o anonimizados, lo cual es esencial en medicina.
“Todos los modelos de IA son generativos.” No. La IA generativa es solo una subcategoría dentro del aprendizaje automático. Otros tipos se enfocan en clasificación, predicción o segmentación.



2 Prompt engineering (ingeniería de patrones conversacionales)

2.1 ¿Qué es el Prompt Engineering?

Prompt Engineering (ingeniería de prompts) es la disciplina que consiste en diseñar, estructurar y optimizar instrucciones (prompts) para guiar el comportamiento de modelos de inteligencia artificial generativa —como ChatGPT o Gemini— con el fin de obtener respuestas más precisas, relevantes y útiles.

En otras palabras:

Es el arte y la ciencia de comunicarse eficazmente con modelos de lenguaje para que realicen tareas específicas de la forma deseada.


2.2 Conceptualmente

Un prompt es el mensaje de entrada que recibe el modelo (texto, imagen o mezcla de ambos). El modelo no “piensa” como un humano, sino que predice la siguiente palabra más probable según el contexto y el patrón estadístico aprendido. Por eso, la forma en que formulamos el prompt determina la calidad de la salida.

El Prompt Engineering se basa en comprender:

  1. Cómo interpreta el modelo el lenguaje.
  2. Qué tipo de contexto necesita.
  3. Qué estructura o formato de respuesta deseamos.

2.3 Objetivos principales

  • Maximizar la precisión y relevancia de las respuestas.
  • Reducir errores, ambigüedades o alucinaciones.
  • Controlar el estilo, rol, tono o formato de salida.
  • Automatizar tareas repetitivas o complejas mediante secuencias de prompts (prompt chaining).
  • Facilitar la colaboración entre humanos y modelos en contextos profesionales o científicos.

2.4 En contexto médico

En medicina, el Prompt Engineering permite transformar modelos genéricos como ChatGPT en asistentes especializados capaces de:

  • Explicar conceptos clínicos a distintos niveles (docente, paciente, investigador).
  • Generar protocolos de estudio o plantillas de informes médicos.
  • Simular casos clínicos para educación basada en problemas.
  • Estandarizar o resumir notas clínicas de forma estructurada.

2.4.1 Ejemplo:

Prompt básico:

“Explícame qué es la insuficiencia cardíaca.”

Prompt diseñado (ingeniería de prompt):

“Actúa como un cardiólogo docente. Explica qué es la insuficiencia cardíaca a estudiantes de tercer año de medicina, usando lenguaje técnico claro, ejemplos clínicos y una tabla con causas principales y tratamientos iniciales.”

Resultado: una respuesta más estructurada, didáctica y adaptada al contexto educativo.


2.5 Componentes de un buen prompt

Componente Descripción Ejemplo médico
Rol Define el papel del modelo. “Actúa como médico internista experto en enfermedades infecciosas.”
Tarea Especifica claramente qué debe hacer. “Resume la historia clínica en formato SOAP.”
Contexto Añade información relevante o restricciones. “Paciente hospitalizado con antecedentes de diabetes y fiebre persistente.”
Formato Indica cómo debe presentarse la respuesta. “Devuélvelo en forma de tabla con diagnósticos diferenciales y pruebas sugeridas.”
Ejemplo o referencia (Few-Shot) Muestra un ejemplo de salida deseada. “Ejemplo de resumen: … Ahora genera uno similar.”

2.6 Tipos comunes de técnicas de Prompt Engineering

Técnica Propósito Ejemplo médico
Role Prompting Ajustar el nivel y tono. “Actúa como tutor de residentes de medicina interna.”
Chain of Thought Inducir razonamiento paso a paso. “Razonemos paso a paso antes de llegar al diagnóstico.”
Few-Shot Prompting Enseñar con pocos ejemplos. “Aquí tienes un ejemplo de informe radiológico. Ahora genera uno similar.”
Reflexion / Critic Prompting Pedir revisión o autoevaluación. “Revisa si tu resumen incluye todos los hallazgos importantes del estudio.”
Prompt Chaining Crear flujo secuencial de prompts. “1️⃣ Resume el artículo. 2️⃣ Identifica las variables. 3️⃣ Propón una hipótesis.”

2.7 Relación con la IA generativa y los LLM

Concepto Función Relación con Prompt Engineering
IA generativa Crea contenido nuevo a partir de datos aprendidos. El prompt engineering es la forma de guiar esa generación.
LLM (Large Language Model) Modelo de lenguaje que predice texto (como ChatGPT). El prompt es su principal interfaz de control.
Deep Learning Base técnica (redes neuronales profundas) que hace posible la generación. El prompt engineering no modifica la red, sino cómo la usamos.
Fine-Tuning Ajusta el modelo con nuevos datos. Prompt Engineering ajusta las instrucciones, no los datos ni el modelo.

2.7.1 En resumen

Prompt Engineering = Diseñar instrucciones inteligentes para que los modelos generativos produzcan resultados útiles, confiables y adaptados al contexto médico o científico.



3 Chatbots de interés


# Chatbot Creador / plataforma En qué destaca URL oficial
1 ChatGPT OpenAI Asistente general, voz, GPT-4o, 1 M tokens, tienda de GPTs https://chat.openai.com"
2 DeepSeek DeepSeek (China) LLM chino de rápido crecimiento, top en matemáticas y código https://chat.deepseek.com
3 Google Gemini Google DeepMind Multimodal, 2 M tokens, integrado en Gmail, Docs, Android https://gemini.google.com
4 Perplexity Perplexity Búsqueda en tiempo real con fuentes citadas https://www.perplexity.ai
5 Claude Anthropic Redacción segura y largos contextos (200 k), uso de “computadora” https://claude.ai
6 Microsoft Copilot Microsoft Asistente en Office 365, Windows 11, generación de imágenes https://copilot.microsoft.com
7 Grok xAI (X/Twitter) Acceso directo a la red social X, tono informal https://grok.x.ai
8 Poe Quora Portal único para usar GPT-4o, Claude, Gemini, Llama, etc. https://poe.com
9 Meta AI Meta Incrustado en Facebook, Instagram, WhatsApp, gafas Ray-Ban https://www.meta.ai
10 Mistral Mistral AI Modelo europeo open-source, barato y de alto rendimiento https://chat.mistral.ai
11 Kimi Moonshot AI 200 k contexto, subida de archivos de 100 MB, nuevo K1.5 https://kimi.moonshot.cn
12 Qwen Alibaba Cloud Familia open-source (0,5-72 B), excelente en código https://qwenlm.github.io
13 Google AI Mode Google (Search Labs) Página de búsqueda que razona en voz alta con URLs en vivo https://labs.google.com/search/ai-mode



4 Aspectos éticos y legales

La ética de la inteligencia artificial (IA), particularmente en el contexto de la IA generativa, es un campo crítico y cada vez más relevante, especialmente en sectores como la salud y la medicina. Existen varios aspectos éticos que deben ser considerados para garantizar el uso responsable y justo de estas tecnologías. A continuación, se destacan los puntos clave:

4.1 Privacidad y Confidencialidad de los Datos

  • Desafío: La IA generativa, cuando se utiliza en salud, tiene acceso a grandes volúmenes de datos personales y sensibles, como registros médicos, imágenes de diagnóstico o incluso datos genéticos. El riesgo de violación de la privacidad es significativo.
  • Consideración ética: Asegurarse de que los datos se manejen conforme a las leyes de privacidad, como el Reglamento General de Protección de Datos (GDPR) en Europa o la Ley de Portabilidad y Responsabilidad del Seguro de Salud (HIPAA) en EE.UU. La anonimización de datos y el uso de datos de manera ética son esenciales para prevenir el acceso no autorizado o la fuga de información confidencial.

4.2 Transparencia y Explicabilidad

  • Desafío: Los modelos de IA generativa, como los grandes modelos de lenguaje, son a menudo opacos en cuanto a cómo toman decisiones o generan respuestas. Esto puede resultar problemático cuando se utilizan en contextos médicos, donde se necesita comprender cómo y por qué se toman decisiones críticas relacionadas con el diagnóstico o tratamiento.
  • Consideración ética: Se debe garantizar la explicabilidad de los modelos de IA, especialmente en la medicina, donde las decisiones pueden afectar la vida de los pacientes. Los profesionales de la salud deben poder entender los resultados generados por la IA para poder integrarlos adecuadamente en su práctica.

4.3 Sesgos y Discriminación

  • Desafío: Los modelos de IA generativa pueden reflejar o amplificar sesgos existentes en los datos de entrenamiento, lo que podría resultar en decisiones discriminatorias, como sesgos en diagnósticos o en la recomendación de tratamientos. Esto es especialmente grave en la medicina, donde las disparidades en la atención pueden perpetuarse.
  • Consideración ética: Es crucial monitorizar y mitigar los sesgos en los datos de entrenamiento y en los modelos para evitar resultados injustos que puedan perjudicar a ciertos grupos de pacientes, como minorías raciales, etnias, géneros o personas con discapacidades.

4.4 Autonomía del Paciente

  • Desafío: La IA generativa puede desempeñar un papel cada vez mayor en la toma de decisiones clínicas. Sin embargo, su intervención plantea la cuestión de hasta qué punto los pacientes tienen control sobre las decisiones relacionadas con su salud.
  • Consideración ética: Debe garantizarse que los pacientes mantengan su autonomía. La IA no debe reemplazar el juicio humano ni despojar a los pacientes de su capacidad para tomar decisiones informadas sobre su salud. La información y el consentimiento informado son esenciales cuando se utiliza IA para apoyar decisiones médicas.

4.5 Responsabilidad y Rendición de Cuentas

  • Desafío: La integración de la IA en la medicina plantea preguntas sobre quién es responsable cuando un modelo de IA comete un error o causa daño. Si una IA genera una recomendación errónea o incluso perjudicial, ¿quién debe asumir la responsabilidad? ¿El médico, el desarrollador del modelo, el hospital?
  • Consideración ética: Debe existir un marco claro de responsabilidad que garantice que, incluso cuando la IA esté involucrada en la toma de decisiones, siempre haya una persona, generalmente un profesional médico, que tenga la última palabra y sea responsable de la decisión.

4.6 Impacto en el Empleo y en los Profesionales de la Salud

  • Desafío: La automatización y el uso de IA generativa en la salud podrían modificar significativamente las dinámicas laborales, desde la sustitución de ciertos roles hasta la modificación de las habilidades requeridas de los profesionales de la salud.
  • Consideración ética: Es fundamental garantizar que la implementación de la IA no desplace injustamente a los trabajadores del sector de la salud. Los programas de capacitación y reentrenamiento deben estar disponibles para ayudar a los profesionales a adaptarse y colaborar eficazmente con la tecnología.

4.7 Acceso y Equidad

  • Desafío: El acceso desigual a las tecnologías de IA en la medicina podría ampliar las disparidades existentes en el sistema de salud. Las comunidades marginadas podrían no beneficiarse de los avances en IA debido a barreras tecnológicas o económicas.
  • Consideración ética: La equidad en el acceso a la IA debe ser una prioridad. Es crucial asegurarse de que las tecnologías de IA se implementen de manera que todos los pacientes, independientemente de su situación económica o geográfica, puedan beneficiarse de ellas.

4.8 Uso Abusivo y Manipulación

  • Desafío: La IA generativa podría ser utilizada para generar información médica falsa, engañosa o manipulada, como diagnósticos incorrectos o información médica distorsionada, lo que podría poner en peligro la salud de los pacientes.
  • Consideración ética: Se deben establecer normas claras y controles sobre el uso de la IA generativa para evitar la propagación de desinformación y garantizar que las decisiones generadas por IA sean seguras, confiables y basadas en la evidencia científica.

4.9 Seguridad y Resiliencia

  • Desafío: La IA en medicina puede estar sujeta a ciberataques, que podrían comprometer tanto los datos de los pacientes como la precisión de los modelos de IA utilizados para diagnósticos y tratamientos.
  • Consideración ética: Se debe garantizar que los sistemas de IA sean seguros y resilientes frente a ataques cibernéticos y que los datos sean protegidos contra accesos no autorizados. Esto incluye la implementación de medidas de seguridad robustas y una monitorización continua para detectar posibles vulnerabilidades.

4.10 Desarrollo y Supervisión Regulatoria

  • Desafío: La rápida evolución de la tecnología de IA en la medicina ha superado la capacidad de las autoridades regulatorias para mantener el ritmo. La falta de normativas claras podría llevar a una implementación descontrolada de la tecnología, con consecuencias imprevistas.
  • Consideración ética: Es vital desarrollar marcos regulatorios adecuados que aseguren que los modelos de IA sean evaluados de manera rigurosa antes de su implementación en el ámbito médico. Estos marcos deben ser adaptativos, capaces de evolucionar conforme lo haga la tecnología, y basados en principios éticos sólidos.

4.11 Conclusión

El uso de la IA generativa en la medicina tiene el potencial de transformar la atención al paciente, pero también plantea desafíos éticos significativos. La clave para abordar estos desafíos es desarrollar e implementar principios éticos sólidos, que prioricen la seguridad, la equidad, la transparencia y el respeto a los derechos de los pacientes. La colaboración entre profesionales de la salud, desarrolladores de IA y reguladores es esencial para garantizar que la tecnología se utilice de manera responsable y en beneficio de todos.



5 Fuentes de información

# Fuente Contenido clave / por qué es relevante
1 Regulation (EU) 2024/1689 – AI Act (UE) — texto oficial del AI Act. (Artificial Intelligence Act) Marco regulatorio horizontal (primero en el mundo) sobre IA, incluye categorías de riesgo, obligaciones para los modelos de propósito general, transparencia, etc.
2 “High-level summary of the AI Act” (UE) (Artificial Intelligence Act) Versión más accesible del AI Act, buena para médicos y profesionales no legales.
3 European Medicines Agency (EMA) “Reflection paper on the use of Artificial Intelligence (AI) in the medicinal-product lifecycle” (sept 2024) (European Medicines Agency (EMA)) Específica para el ámbito de medicamentos: uso de IA/ML en ensayos clínicos, desarrollo de fármacos, regulatorio. Muy relevante para médicos-investigadores.
4 EMA “Guiding principles on the use of large language models (LLMs) in regulatory science and for medicines regulatory activities” (2024) (European Medicines Agency (EMA)) Enfoque directo en modelos generativos (LLMs) aplicados a regulación de medicamentos.
5 OMS “Ethics and governance of artificial intelligence for health” (marzo 2025) (World Health Organization) Marco global para IA en salud: ética, gobernanza, derechos humanos. Adecuado para formación de médicos en IA generativa.
6 OMS “Guidance on large multimodal models (LMMs) for health” (18 enero 2024) (World Health Organization) Enfoque recién actualizado sobre IA generativa (modelos multimodales) en salud — justo lo que estás buscando para tu curso.
7 International Society for Pharmacoeconomics and Outcomes Research (ISPOR) “ELEVATE-GenAI: Reporting Guidelines for the Use of Generative AI in HEOR studies” (2024) (PubMed) Guía para investigación con IA generativa en resultados de salud y economía de la salud. Muy pertinente para médicos-científicos.
8 “FUTURE-AI: International consensus guideline for trustworthy and deployable AI in healthcare” (2023) (arXiv) Marco interdisciplinario (científicos, clínicos, ética) sobre cómo desarrollar IA confiable en salud.
9 “Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity” (arXiv/pre-print) (arXiv) Documento académico que analiza implicaciones legales y regulatorias de IA generativa en la UE — útil para entender contexto.
10 Pan American Health Organization (PAHO) “AI prompt design for public health: Using generative AI responsibly” (2025) (Pan American Health Organization) Guía para salud pública en América Latina — muy útil para formación localizada (España/Cataluña) y para médicos interesados en salud pública.


6 Anexos

6.1 Versión extendida de Patrones (prompt engineering)

Nombre del patrón Descripción Cuándo usarlo Ejemplo aplicado en medicina
Role Prompting Define explícitamente el rol que debe asumir el modelo para ajustar tono, lenguaje y nivel de detalle. Cuando se necesita una respuesta adaptada a un contexto profesional o disciplinar. “Actúa como un profesor de anatomía que explica a estudiantes de medicina los fundamentos del sistema nervioso central.”
Few-Shot Prompting Se proporcionan pocos ejemplos antes de pedir una nueva salida similar. Permite guiar el estilo, formato o razonamiento. Cuando se busca consistencia o precisión en tareas repetitivas o con estructura definida. “Ejemplo 1: Resumen estructurado de un caso clínico… Ejemplo 2: … Ahora genera un resumen del siguiente caso.”
Chain of Thought (CoT) Pide al modelo que razone paso a paso antes de dar una conclusión. Favorece la transparencia y coherencia. En tareas que requieren razonamiento clínico, diagnóstico diferencial o planificación de investigación. “Analiza los síntomas paso a paso antes de proponer un diagnóstico probable.”
Zero-Shot Prompting El modelo responde sin ejemplos previos, confiando en su conocimiento general. Cuando se necesita explorar nuevas ideas, realizar brainstorming o validar conceptos sin sesgos previos. “Propón 5 ideas innovadoras para aplicar IA en la monitorización de pacientes crónicos.”
Self-Consistency Prompting Genera múltiples razonamientos y selecciona el más coherente o probable. En decisiones clínicas, síntesis de evidencia o evaluación de hipótesis. “Genera tres posibles interpretaciones de estos resultados de laboratorio y selecciona la más consistente.”
Reflexion / Self-Reflection Pattern Pide al modelo revisar o criticar su propia respuesta para mejorarla. Cuando se requiere calidad, rigor o autoevaluación de la salida. “Revisa tu resumen del artículo y corrige posibles sesgos metodológicos o errores de interpretación.”
Decomposition Pattern Divide una tarea compleja en subtareas más simples. En generación de protocolos o diseño de proyectos de investigación. “Descompón el proceso de diseño de un estudio clínico en pasos secuenciales: hipótesis, población, variables, análisis, ética.”
Socratic Prompting El modelo formula preguntas para guiar el razonamiento del usuario. En enseñanza médica interactiva o tutorías clínicas. “Formula preguntas que ayuden al estudiante a identificar la fisiopatología detrás de una insuficiencia cardíaca aguda.”
Step-by-Step Instruction (Procedural Prompting) Se solicita al modelo que describa o enseñe un procedimiento de forma secuencial. En educación médica o entrenamiento clínico. “Explica paso a paso cómo realizar una punción lumbar de forma segura.”
Data-to-Text Prompting Convierte datos estructurados en narrativa o explicación natural. Al interpretar resultados de estudios, dashboards o cohortes. “Describe los hallazgos principales de este conjunto de datos de laboratorio en lenguaje clínico comprensible.”
Persona Fusion / Multi-Role Prompting Se combinan varios roles o perspectivas para obtener una visión más rica. En investigación interdisciplinaria o docencia integral. “Responde como si fueras una médica y una bioeticista debatiendo sobre el uso de IA en decisiones de fin de vida.”
ReAct (Reason + Act) El modelo alterna entre razonar y ejecutar acciones (buscar, resumir, comparar). Cuando se requiere que el modelo combine pensamiento analítico y acción (p. ej., extracción y síntesis). “Analiza la siguiente nota clínica, identifica diagnósticos posibles y resume el razonamiento que los respalda.”
Prompt Chaining Combina múltiples prompts secuenciales donde la salida de uno alimenta al siguiente. En generación de reportes complejos o pipelines de análisis médico. “1️⃣ Resume el artículo. 2️⃣ Identifica variables clave. 3️⃣ Genera una tabla para extracción de datos.”
Critic Pattern Se solicita que el modelo actúe como revisor crítico de una respuesta o documento. En revisión de artículos, proyectos o protocolos. “Evalúa críticamente este protocolo de estudio y sugiere mejoras en la metodología.”
Contrastive Prompting Se pide comparar opciones o escenarios. En toma de decisiones clínicas o diseño de tratamientos alternativos. “Compara el uso de IA para cribado de retinopatía diabética frente al diagnóstico tradicional.”
Simulation Prompting Se generan entornos simulados para aprendizaje o práctica clínica. En educación médica o simulación de casos clínicos. “Simula un caso de emergencia geriátrica y actúa como paciente, enfermero y médico tratante.”
Context-Enriched Prompting Se añade información contextual (como antecedentes, entorno o objetivos). En personalización de respuestas clínicas o educativas. “Considerando un hospital rural con recursos limitados, propone un protocolo para diagnóstico de tuberculosis.”
Iterative Refinement Prompting Se genera una primera versión y luego se pide mejorarla iterativamente. En redacción científica, protocolos o materiales docentes. “Genera un resumen del artículo. Ahora revisa para mejorar claridad y rigor metodológico.”
Ethical Reasoning Prompting Se instruye al modelo para integrar consideraciones éticas o regulatorias. En IA médica, investigación o decisiones clínicas complejas. “Describe los dilemas éticos de usar modelos de IA para predecir mortalidad hospitalaria.”