Información y contacto

¿Puede un robot ir a la cárcel?

Random Darknet Shopper es un bot que, semanalmente, visita la deep web y gasta 100 dólares semanalmente de una manera aleatoria. La compra es enviada a los dueños del bot, dos artistas suizos, que hasta han creado una exposición con los objetos comprados, desde unos vaqueros,un Smartphone, una Tablet, un hasta…. Unas dosis de éxtasis.

Varios medios se hicieron eco de esta iniciativa, por lo que apenas un día tras la clausura de la exposición, la policía hizo acto de presencia para confiscar las citadas drogas. ¿Puede ser el bot acusado de comprar drogas? Si un coche autónomo tiene un accidente ¿de quién es la culpa?

Numerosos medios se hicieron eco de esta original iniciativa, y un día después de clausurar su exposición, la policía apareció para confiscar dichas drogas. ¿Pueden ser los responsables del bot acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El “bot” malhechor

Regresamos al primer caso, ¿Qué sucede si alguien programa a un bot para cometer acciones aleatorias y sucede que, en una de ellas termina realizando un delito? Tras informarnos en varios medios nos han explicado que “las cosas no tienen capacidad jurídica, y por tanto no pueden ser condenadas si se da el caso de que cometan infracciones o delitos”, aunque tengan inteligencia artificial. “el bot es solo un medio para realizar el acto ilegal”
Como es lógico, no vas a juzgar a un robot o bot, por lo que el sistema intenta llegar al origen del asunto, para encontrar a la persona causante de dicha acción. Una vez que se ha encontrado hay que definir hasta qué punto es responsable de lo sucedido: ¿ha programado el robot de una manera consciente para cometer acciones ilegales? ¿Lo hizo de una manera insensata sin prever lo que podía pasar? O simplemente ha sido un hecho accidental.

Robot Robando
Lo que hay que tener en cuenta, y es clave en este caso es si se ha producido una estafa (intentar causar daño) o descuido por parte del programador. Si se diese la situación de que la información llegase ante el juez, el programador tendría que demostrar que no había voluntad de realizar dichas actuaciones, y se tendría que evaluar el control que se ejercía posteriormente sobre el bot
¡Atención! Hasta este momento hemos estado hablando de bots programados para realizar tareas “aleatorias”. Lo que supone, que si programas un bot para hacer cosas ilegales es difícil que te libres del castigo. Si el bot es programado intencionadamente para tal fin, el creador del software sería el responsable de los delitos o daños.

¿Si un coche autónomo tiene un accidente?

La conducción autónoma presenta un dilema moral: si un coche va por una vía y la única manera de esquivar un accidente es atropellar a un peatón, ¿Qué tiene que hacer el coche? ¿Quién vale más? ¿Y si el coche lleva cuatro ocupantes? Sobre este tema el New York Times, ha hablado y lo ha etiquetado como “matemáticas morales”.
Lo importante es, ¿Quién carga con la culpa de un accidente de esas dimensiones por un error de un coche autónomo? Tendríamos que ver quién es el culpable del accidente: podría ser el fabricante, por un error en el diseño; el dueño del coche, por falta de mantenimiento; el conductor, por toquetear donde no debe… o todos. Por lo que desde Serinfor pensamos que hasta que se aclare el tema de la responsabilidad en caso de accidente será difícil ver coches autónomos circulando por las carreteras.
En resumen: ya sean bots, los sistemas de inteligencia artificial o los sistemas de conducción autónoma no dejan de ser instrumentos que son programados por alguien y para un fin y de esta forma deben de ser consideradas en caso de que haya un problema.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *