En escenarios industriales colaborativos, la seguridad depende en gran medida del entendimiento recíproco entre el operador humano y el sistema robótico. En particular, el riesgo más peligroso específico de los robots son las colisiones inesperadas entre el robot y el entorno. Cuando se produce un esfuerzo inesperado entre un robot colaborativo y el entorno que lo rodea, las fuerzas de impacto se alivian gracias a su diseño liviano y mecanismos y control compatibles. Sin embargo, evitar esfuerzos de fuerza inesperados implica prever situaciones peligrosas y, por lo tanto, depende de las capacidades de detección, conciencia situacional, planificación y toma de decisiones. Por lo tanto, sin una detección exteroceptiva adecuada, un robot colaborativo no puede considerarse un compañero seguro en el contexto de la cooperación humano-robot (HRC). En otras palabras, para interactuar de forma segura con un operador humano y el entorno, un robot colaborativo debe predecir y prevenir cualquier circunstancia de riesgo en función de su propia conciencia situacional. Es decir, el robot debe identificar, comprender y pronosticar las acciones del operador y los cambios ambientales para reaccionar rápidamente y adaptarse de manera segura a las condiciones operativas esperadas o inesperadas. Por otro lado, el operador debe ser consciente del movimiento del robot colaborativo para garantizar su propia seguridad. Por lo tanto, en el contexto de HRC, más allá de las capacidades de detección, un robot colaborativo también debe estar dotado de medios de interacción adecuados para informar constantemente al operador humano sobre cuáles son los objetivos actuales y futuros y las acciones a alcanzar y realizar, respectivamente. en un horizonte de tiempo finito.
Otro aspecto importante es que la Industria 4.0 también se ve como un facilitador para la flexibilización de los sistemas de producción y, por lo tanto, representa potencialmente un hito importante para la fabricación multivariante. En este sentido, la personalización en masa se puede definir como la capacidad de ofrecer productos y servicios que satisfagan mejor las necesidades de los clientes individuales con una eficiencia de producción casi en masa. Tal diversificación en la producción requiere administrar no solo la variedad interna del producto, sino también la variedad del proceso inducido debido a las diferencias en la secuencia de ensamblaje y los cambios necesarios del sistema de fabricación requerido para manejarlos. Una forma natural de lograr este objetivo es a través de la flexibilización de los sistemas de fabricación, de tal forma que permitan cambiar de un producto a otro sin necesidad de parar la producción para un cambio ni incluir otras adaptaciones manuales del sistema de fabricación. Vale la pena notar que tal adaptación automatizada en el contexto de la fabricación colaborativa se parece mucho a las requeridas por un robot colaborativo para establecer un HRC seguro. De hecho, la comprensión y la previsión de las acciones del operador y los cambios ambientales, en términos de la variante de producto actual, proporcionan toda la información necesaria para la definición de dicha adaptación. Por otro lado, la automatización de dicha adaptación se basa en las capacidades de planificación y toma de decisiones.
Por lo tanto, en términos abstractos, la definición de un HRC seguro y la adaptación automatizada de un sistema de fabricación colaborativa multivariante representan dos instancias particulares de un problema general. Este capítulo está dedicado a la deconstrucción de un problema general de este tipo en términos de tres cuestiones perceptivas y cognitivas más pequeñas: seguimiento de la escena, modelado de tareas y planificación.
Desde principios del siglo XXI, se ha generalizado el uso de técnicas de ML, especialmente las de Deep Learning (DL), en el análisis de grandes cantidades de datos para extraer conclusiones de forma automática. Desde entonces, ML y DL, junto con AI, son ahora términos pertenecientes al imaginario común. Sin embargo, parece haber una creencia común de que AI, ML y DL se refieren al mismo concepto, o casi al mismo. En algunas circunstancias retóricas particulares, este podría ser el caso, pero en términos generales tal superposición de conceptos es totalmente engañosa. El objetivo aquí es doble. Por un lado, aclarar brevemente cuál es el alcance de cada campo de investigación y destacar las relaciones entre ellos. Por otro, identificar los problemas generales clave que dichas técnicas pueden potencialmente resolver en el contexto de la fabricación colaborativa.
Como punto de partida, se puede afirmar que DL es un subconjunto de ML y que, al mismo tiempo, ML parece ser un subconjunto de AI. Por lo tanto, es natural comenzar con la definición de IA. Sin embargo, debido a razones históricas que van más allá del alcance de este capítulo, no es posible proporcionar una definición de IA de “estándar de oro” a menos que se suponga que ya se conocen algunos antecedentes en el campo. Entonces, comencemos en cambio con una breve digresión sobre lo que debe hacer un sistema artificial para ser considerado inteligente. En primer lugar, vale la pena señalar que la inteligencia puede concebirse en términos de razonamiento (pensar) o de comportamiento (actuar). Por otro lado, se puede construir una métrica de comparación de la inteligencia con respecto al desempeño humano o con respecto a un modelo ideal de inteligencia, comúnmente conocido como racionalidad. Por lo tanto, un sistema artificial puede considerarse inteligente si:
1) Actúa como un ser humano (enfoque de prueba de Turing). Un sistema artificial que actúe como un humano debería ser capaz de engañar a un interrogador humano, que no puede distinguir si las respuestas las proporciona una computadora o un humano. Sin embargo, este mecanismo de evaluación asume implícitamente que el sistema artificial ya está equipado con todos los medios necesarios para comunicarse con naturalidad y comprender las preguntas del interrogador. Claramente, este enfoque no escala lógicamente, ya que proporcionar los medios necesarios requeriría resolver algunos problemas generales de IA de antemano.
2) Piensa como un ser humano (enfoque de modelado cognitivo). Si un sistema artificial es capaz de pensar o no como un ser humano, depende de la disponibilidad de una teoría precisa o un modelo de la mente, que solo puede definirse mediante evaluación y validación experimental con humanos o animales. Aunque estrechamente relacionado con la IA, todos estos esfuerzos de investigación cognitiva están totalmente fuera de alcance.
3) Piensa racionalmente (enfoque de las leyes del pensamiento). Para entender si un sistema artificial piensa racionalmente, se necesita conocer un proceso de razonamiento irrefutable. En este sentido, se introdujo la lógica formal para estudiar la inferencia en contenido abstracto (o formal). Basado en tales teorías, el enfoque clásico de IA asume que los sistemas inteligentes pueden construirse sobre programas de computadora que buscan sin agotarse una solución a un conjunto dado de problemas expresados en notación lógica. Desafortunadamente, una limitación clave de este enfoque es que es difícil modelar la incertidumbre del conocimiento y, por lo tanto, la realidad. Por otro lado, los recursos computacionales pueden agotarse fácilmente al realizar algunos pasos de razonamiento (generales).
4) Actúa racionalmente (enfoque del agente racional). Un sistema artificial actúa racionalmente cuando se enfoca en lograr un objetivo dado un conjunto de creencias. Por lo tanto, actuar racionalmente implica percibir, luego actuar o, de manera equivalente, implica mapear entradas perceptivas o percepciones en acciones. Todo sistema artificial capaz de percibir y actuar es lo que se denomina agente. Aquí, la racionalidad se relaciona con una expectativa de éxito en términos de lo que se ha percibido, en contraste con el enfoque de las leyes del pensamiento, donde la racionalidad implica hacer inferencias correctas. Como resultado, un agente racional realiza acciones que se espera que maximicen una medida de desempeño, dada una meta designada, una secuencia de percepciones y cualquier conocimiento incorporado que pueda tener. Observamos que la causalidad es una condición necesaria para la racionalidad.
Ya hemos mencionado que aprendizaje automático, o Machine Learning en inglés (ML) trata con algoritmos que mejoran con la experiencia. Sin embargo, se necesitan algunas aclaraciones. Por un lado, la experiencia se refiere a recolectar evidencia sobre la relación que debe existir entre las entradas y salidas del algoritmo. La evidencia se proporciona en forma de muestras de datos, es decir, una colección de pares de observaciones y resultados. Vale la pena notar que a menudo el par observaciones-resultados corresponde al par entradas-salidas del algoritmo. Sin embargo, en general, tal correspondencia puede depender del problema en estudio y del propio algoritmo (es decir, la estrategia de aprendizaje). La mayoría de los algoritmos de ML se basan en una representación factorizada, donde tanto las entradas como las salidas se dan como vectores N-dimensionales de valores numéricos discretos o continuos. Por otro lado, mejorar significa disminuir la incertidumbre sobre la naturaleza de la relación insumos-productos. En vista de esto, los algoritmos de ML alcanzan su objetivo generalizando (o extrapolando) de evidencia específica a reglas generales. Es decir, siguen un razonamiento inductivo (paradigma bottom-up). Y como tal, las predicciones de cualquier algoritmo de ML dependen en gran medida de la evidencia que se le proporcione: ningún algoritmo de ML puede generalizar más allá del dominio de apoyo inducido por la evidencia conocida.
La Industria 4.0 prevé a los humanos y a los CPS como entidades cooperativas. Bajo tal perspectiva, los CPS deben ser conscientes no de su estado interior, sino también de los ambientales, incluyendo cualquier otra entidad en su entorno. Para interactuar de manera inteligente con humanos y otras máquinas, CPS debe estar dotado de capacidades de toma de decisiones en tiempo real. Aunque todavía hoy hay muchos problemas abiertos en el campo, se pueden combinar diferentes técnicas de IA y ML para proporcionar soluciones factibles a problemas del mundo real, especialmente en los campos de HRC y la adaptación automatizada de un sistema de fabricación colaborativo multivariante.
Dentro de este contexto aplicativo, se requiere brindar un fuerte énfasis en la seguridad, concepto que a nuestro entender no ha sido tomado en cuenta en ninguna formalización del concepto de CPS. Un CPS consciente de la seguridad está compuesto al menos por cuatro bloques fundamentales:
• Un sistema de monitoreo de seguridad en funcionamiento constante para evaluar el estado de seguridad independientemente de cualquier otra funcionalidad del CPS.
• Bloque de reflejos de seguridad que se activará cuando se detecte una circunstancia de riesgo.
• Una unidad de recuperación reactiva para restablecer las condiciones operativas seguras justo después de que la seguridad haya sido garantizada por las acciones rápidas de la unidad de reflejos de seguridad.
• Un módulo de operaciones normales, que normalmente se ejecuta a menos que se anule debido a problemas de seguridad.
HRC se puede implementar de manera efectiva a través de la explotación de tres tecnologías habilitadoras clave, a saber: monitoreo de escena, modelado de tareas y planificación. Diferentes algoritmos de inteligencia artificial y aprendizaje automático de última generación pueden abordar aspectos diferentes de una o más de estas tecnologías. La investigación en esta área aún se encuentra en una etapa inicial, por lo que esta contribución tiene como objetivo motivar a otros investigadores a realizar más investigaciones y profesionales a colaborar con instituciones de investigación para realizar pruebas sobre aplicaciones prácticas en estudios de casos reales.
Las empresas deben ser conscientes de las posibles consecuencias no deseadas que pueden surgir de…
La 4RI es diferente a cualquiera de las revoluciones industriales pasadas. Por un lado, las…
1. Compromiso del consumidor: remodelar lo que significa consumir “La gente no quiere comprar un…
La economía circular busca redefinir el concepto de “residuo” como un recurso valioso. Por ello,…
Tal como lo definen Robert Handfield y Ernest Nichols en su libro de 1999 titulado…
Antes de presentar, analizar y discutir el concepto de EC, se debe definir la noción…