que dice el código moral del robot???
Ayudaaaaa
Doy corona y marco como la mejor respuesta a Aquíen ponga bien la respuesta..
Es para hoyyyyy
Respuestas a la pregunta
Respuesta:
Líneas de conducta para humanos y robots, encaminadas a la protección de ambos.
El gobierno de Corea del Sur está redactando un código ético para evitar que los humanos abusen de los robots, y viceversa. La llamada Carta de Ética para Robots abarcará los principios para usuarios y fabricantes de robots, así como las normas éticas que habrán de ser programadas en los androides, informó el Ministerio de Comercio, Industria y Energía de Corea del Sur.
“La medida se anticipa al día en que los robots, sobre todo los robots inteligentes de servicio, puedan ser parte de la vida cotidiana conforme se realicen mayores adelantos tecnológicos”, decía la declaración del ministerio. Un grupo de cinco expertos, que incluye futuristas y un escritor de ciencia ficción, comenzó a trabajar en la carta el noviembre pasado.
Gianmarco Veruggio, de la Escuela de Robótica en Génova, Italia, y reconocida autoridad en ética para robots (roboética), comentó, “la robótica es una nueva ciencia, con numerosas aplicaciones, que puede ayudar a la humanidad y resolver muchos, muchos problemas. Sin embargo, como en todos los cambios de la ciencia y la tecnología, siempre surgen áreas delicadas, por lo cual los científicos que laboran en este campo tienen la responsabilidad de enfrentar la nueva diversidad de problemas sociales y éticos”.
Maltrato de robots
Corea del Sur es una de las sociedades que ha alcanzado mayor desarrollo tecnológico en el mundo. El Ministerio de Información y Comunicaciones de esta nación está desarrollando planes para colocar un robot en cada hogar surcoreano hacia el año 2020.
La nueva normativa forma parte de un esfuerzo para definir las reglas de la futura interacción entre humanos y androides. “Imagine si algunas personas trataran a los androides como si las máquinas fueran sus esposas”, señaló Park Hye-Young, integrante del equipo de robótica del ministerio, en entrevista con la agencia noticiosa AFP.
El objetivo principal de la carta ética consiste en resolver los problemas sociales, tales como el control humano sobre los robots y la posibilidad de que el ser humano se vuelva adicto a la interacción con los androides. El documento también tocará aspectos legales, como la protección de los datos que adquieran los robots, y tratará de establecer una clara identificación y la capacidad para rastrear las máquinas.
Los adelantos tecnológicos han permitido nuevos modelos de interfaz humano-máquina que podrían plantear diversos desafíos éticos, apuntó Veruggio, el científico italiano. “Piense en la biorrobótica, en la aplicación militar de la robótica, en los robots dentro de los cuartos de los niños”, declaró.
Las leyes de la robótica
El código surcoreano, que posiblemente incluya lineamientos para los propios robots, podría ser considerado una especie de reconocimiento a las tres leyes de la robótica formuladas por Isaac Asimov. Conocidas por los aficionados a la ciencia ficción, dichas leyes aparecieron por primera vez en un cuento corto del difunto autor, Círculo vicioso (Runaround), publicado en 1942.
Las leyes establecen que los robots no pueden lastimar a los humanos ni permitir que corran peligro como consecuencia de una falta de intervención; los robots deben obedecer las órdenes humanas a menos que estén en conflicto con la primera ley, y los robots deben protegerse si para ello no entran en conflicto con las otras leyes.
No obstante, los investigadores en robótica afirman que las leyes de Asimov y la normativa surcoreana son cosa de ciencia ficción y todavía no pueden aplicarse a su campo de especialidad. “Aunque celebro el esfuerzo coreano para establecer una carta de ética para robots, temo que sería prematuro basarla en las leyes de Asimov”, declaró Mark Tilden, diseñador de RoboSapien, un robot parecido a un juguete.
“Por experiencia, sé que el problema de conferir principios morales a los robots es como enseñarle a una hormiga a cantar. Todavía no hemos alcanzado ese nivel y, como demuestran muchas historias de Asimov, los enigmas que enfrentarían robots y humanos resultarían en más tragedias que beneficios”, agregó Tilden, quien trabaja para Wow Wee Toys, en Hong Kong.
Hiroshi Ishiguru, investigador de la Universidad de Osaka y uno de los creadores de Repliee Q1 y Q2, un androide femenino, asegura que todavía es demasiado pronto para determinar el futuro de la ética robótica basándose sólo en las leyes de Asimov. “Si tenemos un vehículo inteligente, ¿quién se hace responsable cuando ocurre un accidente? -plantea-. Lo mismo podríamos preguntarnos acerca de los robots, que carecen de inteligencia humana. Son más parecidos a los vehículos que tenemos en la actualidad”.
Explicación:
espero q te ayude y me des corona UwU