Mostrando entradas con la etiqueta Modelo experto. Mostrar todas las entradas
Mostrando entradas con la etiqueta Modelo experto. Mostrar todas las entradas

miércoles, 25 de febrero de 2026

Orient-IA

IA Modelo experto (II)

Estrategias de razonamiento: encadenamiento hacia adelante y encadenamiento hacia atras

Al hablar del modelo experto, dijimos que constaba de tres componentes, la base de conocimiento, el motor de inferencias y el interfaz de usuario. Mientras que el primero y tercer componente no parecen ofrecer dificultades para su comprensión e identificación en una aplicación real, el segundo requiere una explicación más detallada. Este será el objetivo de esta segunda entrada sobre los modelos expertos de IA.

Aunque sin duda no es el único ejemplo, sí me parece que los informes automarizados de pruebas que ofrecen los sistemas de corrección on-line se acercan mucho a la representación del paradigma modelo experto IA. Con esto no quiero decir que funcionen limitándose a este modelo, pero sí que podrían hacerlo perfectamente. Es por ello que considero a estas aplicaciones o servicios una buena ejemplifición de los componentes de que están dotados estos modelos. Al menos en su parte visible e "intuible" así podrían considerarse.

Empezando por el final, el interfaz se muestra, generalmente, de modo generalmente tosco (tambiém hay que decirlo) como sistema de entrada de datos basado en un formulario simple. La base de conocimientos que sustenta el sistema está oculta, especialmente en lo que hace a los datos sensibles, aquellos sobre los que opera el sistema de reglas del motor de inferencias, aunque algunas de sus partes resultan evidentes en los informes resultantes (1).

Y aquí es cuando llegamos a la cuestión que llama ahora nuestra atención: ¿en que´consiste en la práctica eso que llaman motor de inferencias?, ¿qué es el encadenamiento hacia adelante y el encadenamiento hacia atrás?. Conocer estas cuestiones nos ayuda a implementar este tipo de soluciones en nuestras propuestas; especialmente ahí donde la automatización se puede beneficiar de una aplicación fundamentada del modelo experto IA (2)

Entendemos por encadenamiento hacia adelante (Forward Chaining) es un mecanismo de inferencia dirigido por los datos (data-driven), conceptos que vienen a ser sinónimos. El sistema comienza con los hechos conocidos y aplica las reglas si-entonces para generar nuevos hechos. Este proceso se repite hasta que no se pueden extraer más conclusiones. Se basa en la regla lógica Modus Ponens: Sabemos que P implica Q; si tenemos P, entonces se producirá Q.

Un ejemplo muy simple: sabemos que la regla "Si llueve, el suelo se moja" es cierta (P→Q); contatamos que "Está lloviendo" (P), así que el sistema deduce automáticamente que "El suelo está mojado" (Q).

En el encadenamiento hacia atrás (backward chaining) el motor de inferencias empieza con una meta o hipótesis y trabaja a la inversa para ver si los hechos la sustentan.

En este caso el modelo se guía por objetivos ((goal-driven)) e intenta demostrar una conclusión examinando las cláusulas ENTONCES (consecuentes) de las reglas. Si encuentra una regla cuya conclusión coincide con el objetivo, se mueve al SI (antecedente) y convierte esa condición en un nuevo objetivo a demostrar. Esto es, se basa en la búsqueda de evidencia para la implicación. Para demostrar que Q es cierto, el sistema busca si P lo es en la base de hechos o si existe otra regla que tenga a P como conclusión.

Para ejmplificar ambos procedimientos vamos a exponerlos en un contexto de evaluación clínica. Este contexto, además de no ser extraño para el SEO (al que con mucha frecuencia se le acusa de reproducir indebidamente el modelo clínico), resulta pertinente por ser uno de los contextos en que se han desarrollado soportes IA basados en el modelo experto.

Pondremos como ejemplo la atención médica a un paciente que llega a urgencias con dolor torácico. En este contexto, el procesamiento hacia adelante actúa como el triaje inicial qué sugieren los síntomas y el procesamiento hacia atrás actúa como el especialista que busca confirmar una sospecha específica (en este caso reponder a la pregunta: "¿es un infarto?"). Ambos procedimientos, más que antagónicos, resultan complementarios.

Concretando, llamemos escenario A a la aplicación del procesamiento hacia adelante (triaje) e identifiquemos sus pasos:

  • Hecho 1: Dolor torácico opresivo.
  • Hecho 2: Sudoración profusa.
  • Regla: SI "Dolor opresivo" Y "Sudoración" (datos) ENTONCES (inferir) "Posible Isquemia".
  • Resultado: El sistema alerta al médico para que priorice al paciente porque los datos indican posible riesgo coronario.

El escenario B se plantea como procedimiento hacia Atrás (cardiólogo)

  • Meta: Confirmar Infarto (IAM).
  • Regla necesaria: Para confirmar IAM necesito "Elevación del segmento ST en ECG" O "Troponinas altas en sangre".
  • Acción del sistema: El sistema pregunta: "¿Tiene el resultado del ECG?".
  • Hecho: El usuario sube el ECG con elevación ST.
  • Resultado: La meta "Infarto" se marca como Verdadera.

RESUMEN COMPARATIVO

Característica Encadenamiento Hacia Adelante (Data-driven) Encadenamiento Hacia Atrás (Goal-driven)
Punto de Partida Los Síntomas: El paciente dice que tiene dolor opresivo y sudoración fría. La Hipótesis: El cardiólogo sospecha de un "Infarto Agudo de Miocardio" (IAM)
Pregunta Guía ¿A qué diagnóstico nos llevan estos síntomas? ¿Qué pruebas necesito para confirmar que es un infarto?
Flujo de Trabajo Se introducen los datos ---> Se activan reglas ---> Se llega a una conclusión Se fija el objetivo ---> Se buscan las condiciones necesarias ---> Se solicitan los datos.
Resultado intermedio Genera todas las conclusiones posibles Solo genera las necesarias para probar la meta
Comportamiento Exploratorio: Puede concluir varias cosas a la vez: ENTONCES ---> angina | ansiedad | reflujo Confirmatorio: Se enfoca exclusivamente en evidencias que apoyen o descarten el IAM
Interacción Sistema-Sanitario El sistema procesa la información ya disponible en la ficha médica El sistema solicita activamente: "Realice un ECG" o "¿El dolor se irradia al brazo izquierdo?"
Control de búsqueda Puede generar inferencias no solicitadas Búsqueda dirigida y selectiva
Costo computacional Alto si la base de reglas es grande Más eficiente si la meta está bien definida
Naturaleza Exploratoria Confirmatoria
Eficiencia Alta cuando hay muchos síntomas y no se sabe qué pasa Alta cuando se precisa diagnóstico urgente y hay que descartar riesgos vitales
Ejemplo histórico Sistemas tipo CLIPS Sistemas tipo MYCIN

Consultas. Texto elaborado a partir de consultas a IA Gemini - IA ChatGPT (ambas versión gratuita, los mismos prompt)

Notas
1Sobre estas cuestiones trataremos en su momento dentro de la sección Evaluación.
2Como dije, la automatización de informes de pruebas parece ser un campo de trabajo especialmente apropiado. Lo que no implica que no presente limitaciones ni que otros modelos no sean pertinentes.

martes, 24 de febrero de 2026

Orient-IA

IA Modelo experto

El modelo experto (si se prefiere, el paradigma de sistema experto o "expert system paradigm") fue el paradigma de desarrollo de la IA en los años 70-80 (para algunos, hasta inicios 90). Este modelo se basa en la emulación explícita del conocimiento humano, concretamente de los procedimientos con los que los expertos resuelven problemas propios de su área de conocimiento, aplicando reglas de decisión. En esto se diferencia radicalmente de la IA generativa (modelo actualmente predominante) que se basa en el (auto)aprendizaje de patrones (machine learning).

El modelo experto es un enfoque de IA simbólica que tuvo su auge en los años 70-80 con sistemas como MYCIN (para el diagnóstico de infecciones bacterianas) o DENDRAL (para el análisis de estructuras químicas). Se basa en la premisa de que si podemos capturar el conocimiento declarativo y procedimental de un experto, podremos representarlo formalmente, por lo que una máquina puede reproducir su capacidad de decisión en ese dominio.

Para que un modelo experto funcione se requieren tres componentes:

  • A. Una base de conocimientos o repositorio de hechos y reglas de tipo "Si... entonces..." (IF-THEN). No se trata de datos brutos, sino conocimiento estructurado. Esta base de conocimientos contiene: hechos (o datos sobre el dominio), reglas de producción (de tipo *SI condición → ENTONCES conclusión) y, en algunos casos, marcos (frames) u ontologías. Ejemplo simplificado: SI fiebre = alta Y infección = probable -> ENTONCES prescribir antibiótico tipo X
  • B. Un motor de inferencias, o mecanismo de razonamiento que aplica las reglas lógicas a los hecho conocidos para deducir nuevas conclusiones. Opera mediante el encadenamiento hacia adelante (data-driven), el encadenamiento hacia atrás (goal-driven) y la lógica proposicional, lógica de predicados o esquemas probabilísticos (ej., factores de certeza en MYCIN).
  • C. Una interfaz de usuario, que es el medio mediante el cual el sistema hace preguntas al usuario y entrega una solución o explicación.

En el proceso de creación intervienen dos figuras principales: el experto, que provee de los conocimientos temáticos, y el ingeniero informático, que traduce ese conocimiento a código lógico que la máquina pueda entender.

Dada la naturaleza de la lógica subyacente, estos sistemas son capaces de justificar sus conclusiones: “Recomendé X porque se cumplen las reglas A, B y C”. Esto constituye una ventaja respecto a muchos de los sistemas actuales de aprendizaje profundo (deep learning), que no son capaces de informar de su proceso de toma de decisiones.

El modelo experto no pretende simular conciencia o comprensión profunda, sólo la capacidad decisional especializada mediante:

  • Inteligencia simbólica
  • Razonamiento explícito
  • Conocimiento formalizado y estructurado
  • Competencia estrecha (narrow AI)

El modelo experto presenta como puntos fuertes:

  • Una alta precisión en dominios acotados
  • Capacidad de explicar sus decisiones (trazabilidad del razonamiento), lo que constituye una ventaja crítica en entornos basados en regulaciones y en entornos clínicos.
  • Posibilidad de control lógico del sistema
  • Economía y estabilidad, ya que no exige ni depende de grandes volúmenes de datos.

Por el contrario, presenta también una serie de debilidades o limitaciones críticas que explican el predominio actual de los modelos IA de tipo Machine Learning.

1 - Limitaciones derivadas del cuello de botella que representa el conocimiento humano (knowledge acquisition bottleneck), dado que extraer conocimiento de expertos humanos es lento, costoso y parcial, dado que mucho conocimiento experto es intuitivo, tácito y no explícito.

2 - Rigidez y falta de capacidad de generalización. Esto modelos son deterministas y rígidos, funcionan bien sólo en el dominio para el que fueron diseñados, pero ni transfieren conocimiento ni aprenden por experiencia, salvo que se reprogramen reglas.

3 - Escalabilidad limitada. Al aumentar el número de reglas crece exponencialmente su complejidad, aparecen conflictos entre unas reglas y otras y el mantenimiento se vuelve problemático. Además, cada actualización requiere de la intervención humana.

4 - Incapacidad para manejar el contexto y la ambigüedad compleja. Dado que el mundo real es incierto, borroso y no completamente formalizable, los sistemas expertos clásicos presentan dificultades para enfrentarse a esta realidad, ya que operan mejor en entornos con variables discretas, ontologías claras y criterios normativos bien definidos.

5 - No capturan aprendizaje estadístico implícito. A diferencia del enfoque IA actual (IA generativa), basado en redes neuronales, el modelo experto no aprende de grandes corpus de datos, no infiere patrones latentes ni construye representaciones distribuidas. Su conocimiento es explícito, no emergente.

RESUMEN COMPARATIVO

Característica Modelo Experto (Simbólico) IA Moderna (Redes Neuronales)
Origen del conocimiento Basado en reglas. Ingenieros programando reglas Basado en datos. Datos y entrenamiento autónomo
Tipo de conocimiento Conocimiento explícito Representaciones implícitas
Aprendizaje No aprende solo Aprende por entrenamiento
Explicabilidad Alta (puedes ver la regla que aplicó) Baja ("caja negra")
Flexibilidad De dominio estrecho. Muy baja, es rígido. Generalización estadísticas. Muy alta, se adapta a nuevos datos
Uso ideal Tareas con reglas fijas y claras Areas complejas (visión, lenguaje)

Consultas

Además de IA Gemini - IA ChatGPT (ambas versión gratuita), consultar...