código militar para robots

En un artículo de el mundo se habla de un informe militar estadounidense que, ante el avance de la tecnología robótica militar, advierte sobre la necesidad de un código militar para robots. Una de las frases me ha llamado especialmente la atención es esta:

Hay un error muy común que consiste en creer que los robots sólo harán lo que estén programados para hacer

Sobre este aspecto, ha habido dos creencias diferenciadas (fundamentalmente en la ciencia ficción): la teoría de que los robots y ordenadores tomarán conciencia e intentarán terminar con la raza humana y la teoría de que los robots seguirán ciegamente las órdenes de sus amos humanos.

Ninguna de las dos perspectivas es completamente cierta, desde un punto de vista técnico, suponiendo que los robots se basen en algo parecido a lo que tenemos hoy en día. La primera visión presupone una libertad cognitiva que no es real (una lavadora nunca podrá tomar conciencia de sí misma). En el segundo caso, la realidad es la que resalta el informe: es muy difícil determinar qué es exactamente lo que hará un robot una vez que se le deja libre. Técnicamente es muy complicado predecir el comportamiento del software: muchas partes de software interactuando entre sí en situaciones en las que nunca se han probado. Por muchos test que se hagan, un robot nunca se probará en todas las situaciones reales posibles, así que es imposible predecir un fallo.

Incluso aunque se consiga un conocimiento y razonamiento lógicos, los relatos de Asimov sirven como experimentos mentales para demostrar que no es suficiente con poner reglas aparentemente inquebrantables. Cualquier regla es interpretable y un robot tendrá que interpretar las reglas que se le impongan y si no lo hace el robot directamente, lo hab?a hecho el programador ó diseñador en el momento de crear el robot: hay que delimitar tareas cómo distinguir un ser humano amigo de uno que no lo es o un civil de un militar.

Por eso los robots militares suponen un complicado dilema ético más grande que uno civil. En un robot civil siempre se puede poner un botón rojo de parada de emergencia, pero no se puede hacer lo mismo en uno militar. Así que si hay que detallar el código ético de un robot, mejor hacerlo antes que depués de construirlo. Pero me temo que es complicado que se consiga llevar a cabo, normalmente las armas van por delante de las decisiones éticas o políticas y además hasta que sepamos cómo funciona un robot así y sepamos exactamente sus capacidad (es capaz de distinguir un civil de un militar o una persona de un robot) es difícil plantear códigos morales.

Un comentario en “código militar para robots

  1. Pingback: robots capaces de engañar | es-robot.com

Deja un comentario