por que la inteligencia artificial es un dilema ético
Respuestas a la pregunta
Respuesta:
La IA permite el desarrollo de máquinas inteligentes y autónomas, con capacidad de ser entrenadas para "pensar" y tomar decisiones. Su presencia cada vez más generalizada ha propiciado la creación de un nuevo contexto en las relaciones que las personas mantienen con ellas, con implicaciones hasta ahora inexistentes desde el punto de vista ético y jurídico.
“Debemos ir más allá de las normas éticas, puesto que éstas no cuentan con garantías jurídicas. La autorregulación no es suficiente. Si las normas son solo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician”, apunta Moisés Barrio, letrado del Consejo de Estado, profesor de Derecho Digital y consultor.
Barrio considera que, “los retos más urgentes son el de la responsabilidad y la revisión de los esquemas de tributación y de cotización a la Seguridad Social”. De ahí que defienda la necesidad de la creación de una disciplina jurídica para regular este ámbito de uso de la tecnología. “Esta nueva rama deberá aprovechar las técnicas y avances del Derecho de Internet, y estudiar los problemas de privacidad, responsabilidad civil y penal, consumo y seguridad, entre otros, que los robots están empezando a plantear. No faltan autores que defienden la creación de una Comisión Federal de Robótica o Agencia europea equivalente que regule esta materia”, apunta.
A día de hoy, algunas tecnológicas ya han tomado conciencia de la importancia de regular en este ámbito. El director general de Google, Sundar Pichai, publicó hace más de un año una declaración de intenciones por la que se iban a regir en la compañía para la investigación y desarrollo de soluciones basadas en inteligencia artificial. Microsoft, por su parte, también ha hecho los deberes en este sentido manifestando cuáles son los principios éticos que requieren la creación de sus soluciones. Ambas empresas, a su vez, son miembros activos del AI Now Institute, el instituto de investigación creado en 2017 por Kate Crawford, investigadora de Microsoft Research, y Meredith Whittaker, fundadora del grupo Open Research de Google, en el que se analizan y estudian las implicaciones sociales de la inteligencia artificial.
En cuanto al papel de los estados, en mayo de 2018 se presentó la Declaración de Toronto que, además de describir las responsabilidades de los actores privados en el desarrollo e implementación de la IA, también establece el deber de los gobiernos de prevenir e identificar los riesgos de estos sistemas. El Reino Unido ya tiene un plan al respecto con la creación del Centre for Data Ethics and Innovations (CDEI). Su función es ofrecer recomendaciones y asesorar a los reguladores y la industria para fomentar la innovación responsable.
El Parlamento Europeo, por su parte, está trabajando en el documento Ethics Guidelines for Trustworthy Artificial Intelligence. En él se establecerán las directrices para el desarrollo de sistemas IA en el ámbito de la UE, que han de cumplir tres requisitos: ser legales, éticos y robustos.
Uno de los propósitos de estas iniciativas es construir una inteligencia artificial confiable, aunque Moisés Barrio cree que no son suficientes: “las directrices éticas son un paso muy relevante pero este enfoque tiene graves carencias. En muchas ocasiones demasiado vagos; además, no hay incentivos suficientes para aplicarlos y tampoco prevén ningún mecanismo de supervisión por las instituciones de la UE o de los Estados miembros”.
Explicación: