La inteligencia artificial es la que pueden mostrar las máquinas. Se diferencia, así, de la inteligencia natural que es la que poseen los seres humanos. Se considera que la investigación en AI empieza propiamente en 1956 a partir de una conferencia celebrada en la universidad de Darthmouth.
La investigación en inteligencia artificial ha vivido muchos altibajos desde sus inicios. Entre 1956 y 1974 vivió unos años dorados: los científicos predijeron que en pocos años se podría conseguir un ordenador que tuviera la misma capacidad cognitiva que un ser humano y consiguieron, así, inversiones millonarias para investigar. Sin embargo, sus estimaciones fueron erróneas, no se pudieron cumplir las elevadísimas expectativas y desaparecieron las inversiones. El período entre 1974 y 1980 se considera el invierno de la inteligencia artificial. A parte de los problemas financieros, los proyectos se enfrentaban a una capacidad computacional y de almacenamiento de datos muy reducida que impedía llevar a cabo los procesos y experimentos necesarios.
Entre 1980 y finales de los años 90, el sector de la inteligencia artificial sufrió varios altibajos en popularidad acompañados por la consecuente aparición y desaparición de inversión. A finales de la década de los 90 los ordenadores empezaban a tener una capacidad suficiente como para llevar a cabo avances en el campo. De hecho, el ordenador empleado para jugar al ajedrez en 1997 era 10 millones de veces más potente que el que se había usado para el mismo propósito en 1951.
Desde entonces, ha habido un cambio de perspectiva entorno a la AI. El Big Data y la potencia de los ordenadores ha permitido grandes avances, aunque se hayan llevado a cabo en una dirección distinta a la que se llevaba hasta entonces. Se ha empezado a avanzar en el campo del aprendizaje profundo (o deep learning), así como en las redes neuronales (neural networks) y el aprendizaje automático (machine learning). Todos ellos son ramas de la inteligencia artificial. Existen, además, otras ramas o subramas, como los análisis predictivos (predictive analysis), el reconocimiento del lenguaje natural (Natural Language Recognition) y el reconocimiento facial (Facial Recognition).
Bismart ofrece servicios de análisis predictivos, natural language understanding y reconocimiento facial y de objetos:
El análisis predictivo forma parte del aprendizaje automático. Se basa en modelos predictivos que explotan los patrones que se encuentran en los datos históricos y transaccionales para identificar riesgos y oportunidades. Con el análisis predictivo se pueden pronosticar con una elevada precisión eventos futuros, de forma que las organizaciones pueden prepararse de antemano. Por ejemplo, el análisis predictivo podría predecir el fallo de una máquina en una cadena de producción. Así, se podría arreglar el problema antes que desembocara en un fallo y así evitar o reducir la parada de la cadena de producción.
Netflix es una de las muchas empresas que utilizan el análisis predictivo para mejorar sus servicios, en este caso, en su motor de recomendaciones. El 80% de los usuarios de Netflix consumen únicamente las películas y series que la plataforma les recomienda, lo cual ha reducido la tasa de cancelación del servicio. Además, Netflix utiliza datos sobre el consumo, como la hora del día y la cantidad de contenido visualizado para mejorar sus recomendaciones.
El natural language understanding (NLU) es una subrama dentro del procesamiento del lenguaje natural. El NLU es uno de los problemas más complejos de la AI, conocidos como AI-hard problems. Este campo está ganando popularidad por su uso en el análisis de contenido a gran escala. Mediante natural language understanding es posible la revelación de contenido en formato audiovisual, ya provenga de datos estructurados o no estructurados y en grandes volúmenes.
Un ejemplo del uso de esta tecnología son los asistentes virtuales como Alexa, Siri o Google Assistant. Siri, el asistente de Apple, es capaz de reconocer órdenes a partir del entrenamiento de su red neuronal. El sistema realiza cálculos de probabilidad para detectar si el sonido registrado son las palabras "Oye, Siri" comparándolo con el modelo original. A partir de cierto valor se activa el sistema.
El reconocimiento facial es una aplicación biométrica de la inteligencia artificial que es capaz de identificar el rostro de una persona analizando sus formas y texturas faciales. Sus usos son muy diversos; desde la seguridad, identificando a personas buscadas por la policía, a usos más comerciales, como el retargeting. Además, también puede usarse para saber cuánto tiempo invierten las personas en un lugar determinado para controlar los tiempos de espera y aforos.
El reconocimiento de objetos funciona de forma similar al reconocimiento facial. Puede usarse, por ejemplo, en cadenas de producción para detectar piezas defectuosas, para saber el número de piezas fabricadas o en la distribución de paquetes u otros objetos.
Facebook es un buen ejemplo del uso del reconocimiento facial. En sus bibliotecas de imágenes, se aplica para detectar en qué fotografías aparece una persona partiendo de una sola imagen. Facebook crea una especie de plantilla a partir del análisis de cada píxel de la cara en la imagen. Cada plantilla es única, es casi como una huella dactilar. Cada vez que se sube una imagen, el sistema compara las caras de la imagen con las plantillas y cuando encuentra una coincidencia sugiere una etiqueta.