Home:Tecnologias:Inteligencia Artificial

1. DESCRIPCIÓN DEL ÁREA TECNOLÓGICA

Las tareas típicas de reconocimiento de patrones en la disciplina de aprendizaje automatico se dividen en tres etapas bien diferenciadas: preproceso de los datos originales, extracción de características y clasificación.

El primer objetivo del preproceso es la eliminación de información no útil para la clasificación de un objeto y la normalización de los datos que representan al mismo, de forma que todos los objetos bajo estudio sean comparables entre sí.

En la siguiente etapa se implementa una técnica de extracción de características para reducir la dimensionalidad de los vectores originales, pero manteniendo el máximo posible de información discriminativa. Esto se puede conseguir mediante diferentes técnicas, siendo PCA, LDA y autoencoders algunas de las más conocidas.

Finalmente, se utiliza algún proceso de clasificación como puede ser la técnica conocida como «direct voting scheme». Para ello, todos los vectores de características extraídos de un objeto de «test» son clasificados mediante la regla de los k-Vecinos Más Próximos. La clase ganadora de cada vector clasificado incrementa la cuenta general de «votos» para esa clase, de manera que aquella clase que finalmente más votos acumula tras la votación de todos los vectores pertenecientes a la misma imagen de «test» es la proporcionada como resultado de la clasificación del objeto actual.

Es importante no perder de vista que el aprendizaje automático («Machine Learning») es una disciplina enmarcada en el ámbito de la Inteligencia Artificial, pero con influencias y aportaciones de otras áreas como la Informática Teórica, la Teoría de la Decisión y la Estadística general.

Para afrontar tareas que requieren simular comportamientos que en una persona se interpretarían como inteligentes, es necesario aplicar técnicas que en general requieren aprendizaje a partir de datos del mundo real. Esta información normalmente no está estructurada como en otros ámbitos de la Informática, sino que se presenta en forma de ejemplos. Estos ejemplos contienen medidas físicas, variables obtenidas a partir de diferentes fuentes de datos, interacciones con los usuarios, etc. y el objetivo final es la construcción de un modelo de Inferencia.

La construcción de un modelo de un proceso observable puede acometerse siguiendo dos procedimientos completamente distintos en función de nuestros intereses. Por un lado, si resulta necesario (y es posible) llegar a conocer el funcionamiento interno del fenómeno, será conveniente obtener un Modelo Mecanicista de éste. Por otro lado, si no es razonablemente posible comprender los mecanismos íntimos del proceso a modelar, se debe recurrir a un Modelo Empírico que, a partir de un conjunto más o menos amplio de observaciones, nos proporcione la capacidad de predecir el desarrollo del proceso en un cierto rango de condiciones que, en general, no tienen por qué haberse experimentado durante la construcción del modelo.

Es importante no confundir el concepto de modelo estadístico mecanicista con el de modelo deductivo o basado en el conocimiento. Mientras que este último está completamente especificado por la persona que lo diseña, que debe ser capaz, al menos en principio, de resolver el problema por medios manuales o mediante el consejo de una persona experta, en un modelo mecanicista se define deductivamente sólo la forma paramétrica de comportamiento del fenómeno, habiendo de estimarse los valores de los parámetros con base en un conjunto de observaciones. Los modelos mecanicistas se formulan típicamente en términos de ecuaciones no lineales con los parámetros. Sus ventajas sobre los modelos empíricos son: a) que contribuyen más eficazmente al desarrollo del conocimiento científico; b) su fiabilidad a la hora de realizar extrapolaciones es mucho mayor y c) son mucho más eficaces en términos de economía de representación.

APRENDIZAJE AUTOMÁTICO

Los problemas típicos en Aprendizaje Automático no pertenecen generalmente al conjunto de fenómenos que puedan ser modelados mediante una aproximación mecanicista y, mucho menos, basada en el conocimiento. Se trata habitualmente de procesos muy complejos que requieren el empleo de técnicas fundamentalmente empíricas (inductivas).

Entre los modelos inductivos de Aprendizaje Automático, distinguimos, en función de qué tipo de información se le suministra al sistema en el momento del entrenamiento, en:

  • Aprendizaje supervisado: El algoritmo produce una función que establece una correspondencia entre las entradas y las salidas deseadas del sistema. Un ejemplo son las tareas de clasificación, en las que el sistema ha de etiquetar (clasificar) una serie de vectores utilizando una entre varias categorías (clases) basándose en ejemplos de etiquetados anteriores.
  • Aprendizaje no supervisado: Todo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer patrones para poder etiquetar las nuevas entradas.
  • Aprendizaje semi-supervisado: Este tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de manera adecuada. Se tiene en cuenta los datos marcados y los no marcados.
  • Aprendizaje por refuerzo: El algoritmo aprende en función las respuestas a sus acciones. Por lo tanto, el sistema aprende a base de ensayo-error.

La aplicación de la técnicas anteriormente detalladas a la resolución de problemas de inteligencia artificial requiere de aproximaciones iterativas que permiten afinar mejor los modelos construidos en cada una de ellas mediante el análisis progresivo de los resultados parciales y la realimentación adecuada a partir de esta información para mejorar los modelos preliminares.

Gracias a los avances tecnológicos que se están llevando a cabo en las áreas de computación masiva de datos, ha sido posible empezar a explotar y aplicar a tareas reales las técnicas y soluciones que han venido siendo investigadas desde hace varias décadas en los campos del reconocimiento de formas, visión artificial, aprendizaje automático, reconocimiento del lenguaje natural y áreas afines.

Las tecnologías de Big Data y cloud computing sirven de apoyo para el desarrollo de procesos automáticos en los que se basan muchas de las técnicas evolucionadas dentro del campo de la Inteligencia Artificial.

2. EVOLUCIÓN

Además de las tareas de reconocimiento del habla y traducción automática, en la actualidad se han atacado multitud de tareas de origen diverso, pero siguiendo una aproximación basada en IA. Por ejemplo:

  • Detección de fraude bancario
  • Reconocimiento biométrico (huella datilar, iris, rostro, etc.)
  • Análisis de imágenes complejas para reconocimiento de múltiples objetos
  • Minería de datos
  • y muchas otras.

 En el futuro cercano, el aumento en la cantidad de datos que generamos diariamente y las necesidad de procesar dichos datos para obtener información útil o para llevar a cabo accciones concretas seguirán siendo la fuente de nuevos retos en la aplicación de diversas técnicas investigadas y desarrolladas en el ámbito de la IA.

3. CASOS DE USO Y APLICACIONES

SALUD

La aplicación de técnicas de IA, más concretamente Machine Learning (ML), y las capacidades de computación existentes al campo de salud permiten obtener generar sistemas de apoyo a los facultativos que faciliten su labor y la calidad de los servicios prestados, redundando en una mayor calidad de vida de los pacientes. Así pues, se pretende aplicar técnicas que han demostrado su validez y eficacia en otros ámbitos como la biometría, el reconocimiento de texto manuscrito, la traducción automática a la salud.

La tendencia en el análisis de datos sanitarios es de disponer de pocas observaciones (decenas, centenares) frente a un número importante de variables (centenares, miles y más). Esta situación es un verdadero reto por las razones siguientes:

  • Inferir las fronteras de decisión es un real desafío en espacios de alta dimensionalidad dado que tienden rápidamente a ser muy dispersos y requerir muchas observaciones para poder sacar conclusiones fiables.
  • El problema supervisado es posiblemente incompleto: es decir que no se sabe hasta qué punto tenemos los pacientes que tienen la enfermedad por culpa de las variables incluidas en el análisis o por otra razón.

 

INSPECCIÓN INDUSTRIAL

Tecnología dirigida a la clasificación de piezas, detección de fallos de fabricación y metrología para el control de calidad en los procesos de fabricación en línea. La investigación en el campo del aprendizaje automático ha sido clave en el desarrollo de las bases de esta tecnología. Por ejemplo los algoritmos de clasificación basados en el vecino más cercano (clasificador geométrico supervisado), así como en el aprendizaje automático de un modelo de referencia mediante la composición de varias adquisiciones sobre una misma pieza real correcta, o incluso en el proceso de alineamiento entre la pieza de referencia y la pieza bajo inspección, basado en técnicas de minimización de distancias punto a punto mediante un algoritmo iterativo.

PROYECTOS CON FUERTE COMPONENTE IA

Se trata de tareas en la que se requiere investigar técnicas de aprendizaje automático, visión por computador y su combinación para ser aplicadas en múltiples y muy diversos ámbitos (transporte, seguridad, biometría, finanzas, optimización, etc.) donde su combinación da lugar a resultados prometedores en la automatización y mejora de sus procesos. Además, hay que destacar también el uso de técnicas de reconocimiento de patrones tanto en el aprendizaje automático como en la visión por computador para detección de objetos, reconocimiento de entorno y análisis de escenas que apoyan la toma de decisiones.

¿NECESITAS ALGUNA DE ESTAS TECNOLOGÍAS EN TU PROYECTO?

Ponte en contacto con nosotros a través del formulario para empresas y te orientaremos para incorporar estos tecnologias a tu proyecto a través de los socios especializados en tu actividad.

Selecciona idioma:

ESPAÑOL ENGLISH