
Revolución inteligente: aplicaciones, mitos, realidades y ética de la inteligencia artificial en salud pública y medicina veterinaria
AUTORES: Juan Ramón Ayala Torres, 1 ID y María Fernanda Hernández Morales, 1 ID
Resumen
La inteligencia artificial (IA) ha emergido como una tecnología transversal con capacidad para transformar profundamente los sistemas de salud pública, la medicina veterinaria y la producción animal. Este artículo examina sus fundamentos, aplicaciones y desafíos desde un enfoque académico y técnico, con énfasis en su impacto en el ámbito de One Health. Partimos del análisis del concepto de IA y de su evolución, así como del modo en que interactúa con otras tecnologías digitales. A través de una revisión crítica de la literatura y de experiencias de campo, se demuestra que su implementación ya no es una proyección futura, sino una realidad operativa.
A lo largo del documento, se presentan los principales ámbitos de aplicación de la IA en contextos clínicos, epidemiológicos, ambientales y productivos. Se destacan casos reales en los que ha demostrado ser efectiva en la predicción de brotes, la trazabilidad sanitaria, el monitoreo del bienestar animal y la optimización de recursos diagnósticos y terapéuticos. Estas aplicaciones no solo aportan eficiencia, sino que también permiten una atención más precisa, proactiva y basada en evidencia. Además, se describe cómo la IA fortalece la vigilancia epidemiológica, el manejo de emergencias y la formación de talento humano.
Se dedica una sección específica a desmontar mitos comunes en torno a la IA, como la idea de que reemplazará al profesional o de que sus decisiones son infalibles. A través del análisis de estos mitos y su contraste con realidades documentadas, se promueve una comprensión crítica que permita una integración consciente y equilibrada. El artículo subraya que la IA es una herramienta de apoyo, no un sustituto, y que su efectividad depende del contexto, de la calidad de los datos y de la competencia profesional en su manejo.
De igual manera, se profundiza en los desafíos éticos que conlleva su uso, tales como el sesgo algorítmico, la privacidad de los datos, la transparencia de los procesos automatizados y la equidad en el acceso a estas tecnologías. Se aboga por un enfoque de gobernanza participativa y responsable, en el que se prioricen la trazabilidad, la justicia distributiva y el respeto por los principios fundamentales del ejercicio profesional. El artículo enfatiza que, sin una base ética sólida, la revolución tecnológica corre el riesgo de volverse excluyente o incluso contraproducente.
Finalmente, se destacan los beneficios estratégicos de la IA para la sostenibilidad, la resiliencia sanitaria y la soberanía tecnológica de las naciones. La integración efectiva de estas herramientas exige inversiones en infraestructura digital, políticas públicas innovadoras y formación de recursos humanos calificados. Las conclusiones y recomendaciones invitan a liderar esta transformación desde una perspectiva local con visión global, en la que la inteligencia artificial sea una aliada en la construcción de sistemas de salud más justos, modernos y preparados para los desafíos del siglo XXI.
Palabras clave: inteligencia artificial, medicina veterinaria, salud pública
Abstract
Artificial intelligence (AI) has emerged as a transformative technology with the potential to significantly impact public health systems, veterinary medicine, and animal production. This article examines the foundations, applications, and challenges of AI from both academic and technical perspectives, highlighting its effects within the One Health framework. It begins with an overview of the concept and evolution of AI, as well as its interactions with other digital technologies. Through a critical review of the literature and real-world experiences, the article demonstrates that the implementation of AI is no longer a future possibility but a present-day reality.
The document outlines key areas where AI is applied in clinical, epidemiological, environmental, and production contexts. It highlights real cases where AI has proven effective in outbreak prediction, health traceability, animal welfare monitoring, and optimizing diagnostic and therapeutic resources. These applications not only enhance efficiency but also enable more precise, proactive, and evidence-based care. Moreover, the article describes how AI strengthens epidemiological surveillance, emergency response, and human resource development.
A dedicated section has been included to debunk common myths surrounding AI, such as the belief that it will replace professionals or that its decisions are infallible. By contrasting these myths with documented realities, the article encourages a critical understanding that promotes responsible and balanced integration. It emphasizes that AI is a support tool, not a replacement, and that its effectiveness depends on context, data quality, and the competence of the professionals who manage it.
The article discusses the ethical challenges associated with artificial intelligence, including algorithmic bias, data privacy, transparency in automated processes, and equitable access to technology. It advocates for participatory and responsible governance, emphasizing the importance of traceability, distributive justice, and adherence to core professional values. The article highlights that without a strong ethical foundation, the technological revolution may become exclusionary or counterproductive.
Finally, the strategic benefits of AI for sustainability, health resilience, and technological sovereignty are emphasized. Effective integration of these tools requires investment in digital infrastructure, innovative public policy, and the training of qualified professionals. The conclusions call for leadership of this transformation from a local perspective with a global vision—where AI becomes a key ally in building fairer, modern, and future-ready health systems.
Keywords: artificial intelligence, veterinary medicine, public health
Introducción a la inteligencia artificial
La inteligencia artificial (IA) representa uno de los avances tecnológicos más disruptivos del siglo XXI. Su evolución ha permitido que las máquinas imiten ciertos procesos cognitivos humanos, como la percepción, el razonamiento y el aprendizaje. En la actualidad, la IA no solo se limita a la robótica o al entretenimiento, sino que su alcance se ha ampliado significativamente a sectores críticos como la salud, la producción animal, la educación y la industria.1,2 Esto implica nuevas oportunidades, pero también desafíos éticos, legales y sociales que requieren atención.3,4
El concepto de IA se refiere a sistemas informáticos capaces de ejecutar tareas que normalmente requieren inteligencia humana. Esto incluye desde el reconocimiento de patrones y el análisis de datos hasta la toma de decisiones complejas. Su base técnica radica en algoritmos, redes neuronales artificiales, aprendizaje automático (machine learning) y procesamiento del lenguaje natural (PLN). Gracias al incremento exponencial de los datos y del poder computacional, la IA ha progresado rápidamente en precisión y versatilidad.3,4
En el contexto de la salud pública y la medicina veterinaria, la IA se perfila como un instrumento de apoyo para la toma de decisiones clínicas, la vigilancia epidemiológica, la detección de enfermedades y la optimización de los recursos sanitarios.1,2 En países en desarrollo, donde los recursos son limitados, la IA podría representar un medio eficaz para ampliar el acceso a servicios especializados. Sin embargo, su integración exige un marco normativo, capacitación del personal y una evaluación crítica de los riesgos asociados.3,4
Esta revolución tecnológica plantea una transformación no solo técnica, sino epistemológica. Cuestiona nuestras nociones tradicionales sobre el conocimiento, la autoridad médica, el rol del veterinario y la autonomía del paciente. Por ello, más allá de su potencial, es imperativo analizar la IA desde una perspectiva transdisciplinaria que incluya tanto los beneficios como las limitaciones y los peligros latentes.3-5
El presente artículo se enfoca en desmitificar conceptos erróneos asociados a la IA, exponer casos de éxito y aplicaciones reales en medicina y salud animal, y plantear los principales desafíos éticos. Esta visión integrada permitirá una adopción más informada, crítica y responsable de la IA en contextos clínicos, académicos e industriales.3-5
Funcionamiento y ámbitos de aplicación de la IA
El funcionamiento de la inteligencia artificial se basa principalmente en la recopilación, el procesamiento y el análisis de grandes volúmenes de datos para detectar patrones y realizar predicciones. Utiliza algoritmos matemáticos complejos y redes neuronales artificiales que permiten simular funciones cognitivas humanas. Estos modelos aprenden y mejoran con el tiempo mediante técnicas de aprendizaje supervisado, no supervisado y reforzado, según el objetivo y el tipo de información disponible.3-5
El aprendizaje automático, o machine learning, constituye el corazón de la mayoría de las aplicaciones de IA actuales. En este enfoque, el sistema se entrena con datos históricos para luego predecir comportamientos futuros o clasificar información nueva. Mediante procesos iterativos, los modelos se optimizan continuamente, lo que permite mejorar la precisión en la toma de decisiones. Por ejemplo, en medicina, puede identificar signos sutiles en imágenes de diagnóstico que podrían pasar desapercibidos para el ojo humano.
En el ámbito de la salud pública, la IA se utiliza para monitorear brotes epidemiológicos, predecir riesgos sanitarios y modelar escenarios ante pandemias.1,2 Su capacidad para analizar rápidamente grandes conjuntos de datos provenientes de diferentes fuentes —como registros clínicos, reportes de laboratorio o incluso redes sociales— la convierte en una herramienta clave para los sistemas de vigilancia temprana. En la medicina veterinaria, puede optimizar el manejo de poblaciones animales, detectar enfermedades en fases tempranas y mejorar la trazabilidad.3-5
Otro campo relevante de aplicación es la atención personalizada. La IA puede adaptar los tratamientos médicos a partir del perfil genético y fisiológico del paciente, lo que abre la puerta a la medicina de precisión. En veterinaria, esto puede traducirse en esquemas de nutrición, reproducción y control de enfermedades, diseñados específicamente para cada especie, raza o grupo productivo, lo que mejora la eficiencia y el bienestar animal.3-5
Por último, en la industria y la producción animal, la IA se aplica a la automatización de procesos, desde la recolección de datos mediante sensores IoT (Internet of Things) hasta el uso de drones y robots para monitorear animales y cultivos. Estas tecnologías permiten reducir costos, anticipar fallas, incrementar la productividad y tomar decisiones basadas en evidencia. La integración de la IA en estos contextos promete una revolución silenciosa pero contundente en la forma en que se gestionan los sistemas de salud y de producción.3,5
Mitos y realidades sobre la IA
Mito 1: la IA pronto será consciente o tendrá emociones humanas
Existe una idea popular, alimentada por la ciencia ficción, que sugiere que la inteligencia artificial alcanzará niveles de conciencia comparables a los de los humanos. Esta narrativa, si bien interesante desde el punto de vista literario y cinematográfico, carece de sustento científico actual. Los sistemas de IA, incluidos los más avanzados como los modelos de lenguaje generativo, no poseen estados internos de conciencia, intencionalidad ni experiencias subjetivas. Su funcionamiento se basa en algoritmos matemáticos que simulan respuestas mediante el análisis estadístico de datos, sin implicar entendimiento real o emociones.3-6
A diferencia del cerebro humano, que integra componentes biológicos, emocionales y contextuales, la IA opera según reglas predefinidas y aprendizaje automatizado. Aunque puede reconocer palabras relacionadas con las emociones o generar respuestas empáticas, estas son el resultado de correlaciones estadísticas, no de una vivencia genuina. Investigadores de la neurociencia y la filosofía de la mente coinciden en que la conciencia es un fenómeno complejo, emergente de procesos biológicos que actualmente no pueden replicarse artificialmente.3-5
Confundir una simulación de empatía con la verdadera emoción puede llevar a la sobreestimación de las capacidades de la IA. Este mito es particularmente peligroso en áreas como la salud, donde se requiere juicio ético, empatía real y comprensión del contexto humano. Atribuir cualidades humanas a la IA puede provocar un uso irresponsable de estas tecnologías y generar expectativas irreales sobre su desempeño, sobre todo cuando se les asigna la toma de decisiones críticas.5,6
Mito 2: la IA reemplazará a todos los empleos humanos
Uno de los temores más extendidos ante el avance de la inteligencia artificial es la idea de que sustituirá por completo al trabajo humano. Aunque la IA efectivamente automatiza tareas, en particular aquellas repetitivas o basadas en datos estructurados, su impacto no es necesariamente eliminador. En lugar de reemplazar a todos los trabajadores, la IA está transformando los perfiles de las ocupaciones y generando nuevas oportunidades laborales en áreas como el desarrollo, el mantenimiento y la supervisión de sistemas inteligentes.5,6
Diversos estudios, como los reportes del Foro Económico Mundial (2023), coinciden en que la IA desplazará ciertos roles mientras crea otros, en lo que se conoce como transformación laboral. Por ejemplo, si bien puede automatizar el análisis de imágenes médicas, siempre se requiere un profesional que interprete los resultados en su contexto clínico. Además, áreas como la medicina veterinaria requieren competencias éticas, comunicativas y prácticas que no pueden ser replicadas por una máquina.5-7
En este sentido, la IA debe concebirse como una herramienta de colaboración más que como un reemplazo. Su incorporación bien diseñada puede potenciar la productividad y liberar tiempo del personal para que se enfoque en actividades de mayor valor agregado. Esta sinergia entre humanos e IA puede derivar en mejores resultados, menor desgaste profesional y mayor accesibilidad a los servicios, particularmente en regiones con escasez de especialistas.5-7
Mito 3: la IA es 100% objetiva e imparcial
Una falsa creencia común es que los sistemas de IA, al basarse en cálculos matemáticos, son, por definición, objetivos y neutrales. No obstante, esta afirmación ignora un aspecto crucial: la IA aprende a partir de datos generados por humanos. Si esos datos están sesgados, incompletos o reflejan desigualdades sociales, los modelos de IA reproducirán —y, en muchos casos, amplificarán— dichos sesgos. Esto puede resultar en decisiones injustas o discriminatorias, especialmente en sectores como la salud, la justicia o la educación.5-7
Numerosos estudios han documentado casos de algoritmos que discriminan por género, raza o condición socioeconómica. En medicina, por ejemplo, algunos sistemas de diagnóstico entrenados con poblaciones homogéneas no reconocen los síntomas atípicos de las minorías. Esto evidencia que la calidad de los datos, la diversidad de los conjuntos de entrenamiento y la supervisión humana son factores críticos para garantizar decisiones más equitativas. La imparcialidad no es una propiedad inherente a la IA, sino una meta a lograr mediante prácticas de diseño responsables.5-8
Por ello, se requieren marcos regulatorios claros, auditorías algorítmicas y transparencia en los procesos de entrenamiento de la IA. Solo con mecanismos de rendición de cuentas y de revisión ética se puede mitigar el riesgo de reproducir injusticias sistémicas. Reconocer esta limitación es el primer paso para construir sistemas más justos y confiables que realmente apoyen a la salud pública y la medicina veterinaria desde una perspectiva inclusiva.7,8
Mito 4: la IA puede resolver cualquier problema
Uno de los errores más frecuentes es creer que la IA es una solución universal para cualquier desafío. Esta percepción suele ignorar que los modelos de IA funcionan mejor en contextos bien definidos, donde hay grandes cantidades de datos estructurados y objetivos claros. Problemas complejos que requieren interpretación contextual, intuición o creatividad humana siguen siendo muy difíciles de abordar con IA. Por ejemplo, un algoritmo puede detectar una anomalía en una radiografía, pero no puede valorar las circunstancias sociales, emocionales o económicas del paciente.5-8
La IA, en términos técnicos, opera dentro de límites algorítmicos y estructurales. Sus respuestas dependen en forma directa de la calidad y el tipo de datos con los que ha sido entrenada. En escenarios impredecibles o dinámicos, su desempeño puede disminuir significativamente. Esto se evidencia en sistemas de atención automatizada que fallan ante preguntas fuera del guion o ante situaciones que requieren empatía y adaptabilidad. Por tanto, se debe entender la IA como una herramienta especializada y no como un sustituto de la inteligencia humana integral.7,8
En salud pública y medicina veterinaria, este mito puede llevar a implementar soluciones tecnológicas sin un análisis contextual ni acompañamiento profesional. Es fundamental evaluar si el problema puede abordarse realmente con IA o si requiere enfoques mixtos que combinen la analítica de datos con la experiencia clínica. De lo contrario, se corre el riesgo de malgastar recursos, tomar decisiones erróneas o generar falsas expectativas sobre los resultados de estas tecnologías.7,8

Mito 5: la IA siempre es mejor que los humanos en todas las tareas
Es cierto que la IA supera a los humanos en ciertas tareas, especialmente aquellas que requieren análisis masivo de datos, alta velocidad de procesamiento o ejecución repetitiva sin fatiga. Sin embargo, esto no significa que sea superior en todas las áreas. Los humanos siguen siendo insustituibles en aspectos como la creatividad, la ética, la empatía y la comprensión profunda del contexto. En entornos clínicos, estas cualidades son fundamentales para la toma de decisiones complejas y la interacción con pacientes o tutores de animales.7-10
Además, muchos sistemas de IA presentan un rendimiento óptimo solo en condiciones ideales. Cuando se enfrentan a datos incompletos, ambigüedades o entornos cambiantes, pueden fallar o producir resultados erróneos. A diferencia del ser humano, que puede adaptarse e improvisar, la IA requiere reentrenamiento o ajustes estructurales para modificar su comportamiento. Por esta razón, la colaboración entre humanos y máquinas suele producir mejores resultados que el uso exclusivo de uno u otro.7-10
Aceptar este mito sin cuestionarlo puede conducir a la deshumanización de los servicios de salud. Delegar completamente tareas clínicas o diagnósticas en sistemas automatizados puede restar valor al juicio clínico y disminuir la calidad del trato. En cambio, un enfoque centrado en la complementariedad puede generar modelos híbridos en los que la IA apoya la eficiencia, pero el profesional conserva la supervisión y la última palabra en las decisiones críticas.7-10
Mito 6: la IA es igual a los robots
Es común que el público en general asocie automáticamente la inteligencia artificial con imágenes de robots humanoides. Sin embargo, la IA y la robótica son campos distintos, aunque complementarios. La IA se refiere al software o a sistemas que toman decisiones inteligentes, mientras que la robótica se centra en el diseño y la construcción de máquinas físicas que ejecutan acciones. No todos los sistemas de IA están integrados en robots, ni todos los robots requieren IA avanzada para funcionar.10
En medicina veterinaria, por ejemplo, se pueden utilizar algoritmos de IA para analizar patrones de comportamiento animal sin que intervenga ningún dispositivo robótico. De igual manera, un brazo robótico en una línea de producción puede operar mediante programación simple, sin necesidad de aprendizaje automático. Esta distinción es clave para entender que muchas de las aplicaciones útiles de IA no tienen forma física ni apariencia antropomorfa.10
Confundir ambos conceptos puede limitar el aprovechamiento de la IA o generar miedos infundados sobre su adopción. Mientras que los robots tienen presencia material y ocupan espacio físico, la mayoría de las soluciones basadas en IA son invisibles para el usuario: operan en segundo plano, desde sistemas de gestión hospitalaria hasta plataformas de monitoreo poblacional. Por ello, una alfabetización tecnológica adecuada debe enfatizar la diferencia entre ambos campos para promover una adopción informada y sin prejuicios.10-12
Mito 7: la IA puede aprender y mejorar por sí sola indefinidamente
Uno de los mitos más persistentes es la creencia de que la inteligencia artificial puede evolucionar sin límites ni intervención humana. Si bien algunos sistemas de aprendizaje automático pueden adaptarse a nuevos datos, todos los modelos requieren supervisión, mantenimiento y reentrenamiento para mantener su precisión y relevancia. La IA no es autónoma en su desarrollo; depende de ingenieros, científicos de datos y expertos para ser ajustada, actualizada y validada constantemente.10-12
El aprendizaje automático está limitado por los datos que recibe. Si los datos cambian o se vuelven obsoletos, el sistema puede perder eficacia o producir errores. Además, muchos modelos sufren de lo que se conoce como “desviación por deriva de datos” (data drift), que ocurre cuando los patrones de entrada cambian con el tiempo. Para evitarlo, es necesario rediseñar o reentrenar el sistema periódicamente, asegurando que sus respuestas sigan siendo válidas en contextos dinámicos.10-12
Este mito puede ser especialmente perjudicial en áreas como la salud pública, donde asumir que un modelo es perpetuamente eficaz puede llevar a decisiones clínicas peligrosas. Por ello, todo sistema de IA debe ser auditado, calibrado y validado de forma continua para mantener estándares de calidad y seguridad. La supervisión humana no es opcional; es una condición esencial para garantizar resultados éticos y responsables.11,12
Mito 8: la IA siempre es segura y confiable
Otra falacia común es creer que la IA, por su base tecnológica, está libre de errores y es completamente confiable. En realidad, los sistemas de IA pueden fallar por múltiples razones: errores de programación, sesgos en los datos, malinterpretación de las entradas o fallos en el entorno en el que operan. Aunque los algoritmos son precisos en condiciones ideales, en la práctica pueden verse afectados por la complejidad del mundo real.12,13
La seguridad de la IA depende en gran medida de cómo ha sido diseñada, implementada y supervisada. Si el conjunto de datos utilizado contiene sesgos o información incorrecta, el modelo puede reproducir esos errores a gran escala. En salud o en medicina veterinaria, esto puede traducirse en diagnósticos erróneos, recomendaciones inapropiadas o la priorización incorrecta de casos. Por eso, es esencial que la IA se implemente con protocolos de validación, pruebas de estrés y planes de contingencia.12,13
Además, la confianza pública en la IA puede deteriorarse si no hay transparencia en su funcionamiento. Explicar cómo se toman las decisiones, cuáles son sus límites y bajo qué condiciones puede fallar fortalece la seguridad jurídica, ética y técnica. Asumir que la IA es infalible no solo es incorrecto, sino que también puede ser peligroso cuando se trata de decisiones que afectan la vida y la salud.12-14
Mito 9: la IA llevará a una “rebelión de las máquinas”
Impulsado por la cultura popular, este mito plantea un escenario distópico en el que las máquinas adquieren voluntad propia y se rebelan contra la humanidad. Aunque interesante como ficción, no tiene base científica en el estado actual del desarrollo de la IA. Los sistemas actuales no tienen consciencia, deseos ni metas propias. Son herramientas diseñadas para cumplir tareas específicas y siguen las instrucciones que les son programadas o aprendidas dentro de un marco limitado.12-14
Atribuir intenciones a los sistemas de IA implica un error de categoría: se les atribuyen cualidades humanas a entes matemáticos que carecen de subjetividad. Los riesgos reales no provienen de una rebelión autónoma, sino del mal diseño, del uso negligente o del uso intencionadamente dañino por parte de humanos. Por ejemplo, una IA mal entrenada puede causar daño por error; una IA usada en sistemas de vigilancia sin controles éticos puede derivar en violaciones de derechos humanos.12-14
Es importante, sin embargo, mantener un enfoque proactivo en la regulación y la gobernanza de estas tecnologías. El verdadero desafío no es evitar una rebelión de las máquinas, sino prevenir el uso indebido de las herramientas por parte de quienes las controlan. La ética, la responsabilidad institucional y la supervisión independiente son los pilares para garantizar que la IA beneficie a la sociedad sin caer en escenarios especulativos ni tecnofóbicos.12-14
Referencias
- Anderson M, Anderson SL. Machine Ethics. Cambridge: Cambridge University Press, 2011.
- Boden MA. AI: Its Nature and Future. Oxford: Oxford University Press, 2016.
- European Commission. White Paper on Artificial Intelligence: A European approach to excellence and trust. Brussels: EC, 2020. Disponible en: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
- FAO. Digital agriculture and artificial intelligence. Rome: Food and Agriculture Organization of the United Nations, 2022. Disponible en: http://www.fao.org/digital-agriculture
- OIE. Guidelines on the use of AI in veterinary surveillance. Paris: World Organization for Animal Health, 2021.
- OpenAI. GPT-4 Technical Report. San Francisco: OpenAI, 2023. Disponible en: https://openai.com/research/gpt-4
- Turing AM. Computing Machinery and Intelligence. Mind. 1950;59(236):433–460.
- Whittington D, Boston J. Ethics of Artificial Intelligence in Health Care. Geneva: World Health Organization, 2019.
- Windsor J. Big Data and Health Systems. J Public Health. 2015;37(4):655–662.
- Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019;25(1):44–56.
- Obermeyer Z, Emanuel EJ. Predicting the future — big data, machine learning, and clinical medicine. N Engl J Med. 2016;375(13):1216–9.
- Esteva A, Kuprel B, Novoa RA et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature. 2017;542(7639):115–8.
- Rajpurkar P, Irvin J, Zhu K et al. CheXNet: Radiologist-level pneumonia detection on chest X-rays with deep learning. arXiv. 2017;preprint arXiv:1711.05225.
- Beam AL, Kohane IS. Big data and machine learning in health care. JAMA. 2018;319(13):1317–8.
Leave a reply