272 likes | 286 Views
En esta presentaciu00f3n trataremos temas u00e9ticos y dilemas morales acerca de la inteligencia artificial.<br>
E N D
Ética en la informática. Aplicada a la Inteligencia Artificial.
La ética permite orientar la conducta humana en la Informática, orienta y guía las acciones del ser humano para definir como comportarse ante diversas experiencias en beneficio propio y el de los demás. Relación de la ética y la informática.
Puntos a tratar La ética frente a la inteligencia artificial Dilemas morales Estándares morales dirigidos a humanos, a los creadores de tecnología.
La ética frente a la inteligencia artificial En los últimos años, el mundo ha experimentado eventos y cambios inesperados, que han transformado radicalmente los procesos de producción y de comunicación entre empresas y personas, abriendo nuevos paradigmas y dilemas éticos. La tecnología, el internet y la revolución de la era de la información han venido a jugar un papel preponderante en las presentes y futuras generaciones.
Hablar de big data, inteligencia artificial (IA), machine learningo aprendizaje automático, cloudcomputing, realidad virtual y realidad aumentada, robótica avanzada, Internet de las Cosas (IofT), automóviles autónomos es algo cada vez más común. Forman parte de nuestra vida cotidiana, y su uso va a más.
Todos ellos constituyen elementos esenciales del presente y nos abren las puertas a un mundo de relación con el software, que incide en el comportamiento humano y no está exento de cuestionamientos éticos.
Hace un par de años, el Comité de Inteligencia Artificial del Reino Unido, creado en la Cámara de los Lores (la cámara alta del Parlamento británico) abordó estas preguntas y definió cinco pilares éticos sobre los que debe construirse y desarrollarse la capacidad de las máquinas en lo adelante:
El desarrollo de la Inteligencia Artificial debe ser para el bien común y el beneficio de la humanidad. • La Inteligencia Artificial debe basar su funcionamiento en los principios de justicia e inteligibilidad. • La Inteligencia Artificial no debe utilizarse para reducir el derecho a la información o el derecho a la privacidad de las personas, las familias o la comunidad. • Todos los ciudadanos deberían tener derecho a ser educados para florecer mentalmente, emocionalmente y económicamente, paralelamente a la Inteligencia Artificial. • El poder autónomo para dañar, destruir o engañar a los seres humanos no debería implementarse en la Inteligencia Artificial.
Hay que reconocer que nuestras vidas están ligadas a la inteligencia artificial y cada vez lo estarán más, lo cual nos hace codependientes. Es cierto que el paradigma de un mundo altamente tecnologizado nos aporta grandes ventajas como usuarios, pero también presenta una serie de dilemas éticos y morales que por su complejidad convienen sean observados y ponderados seriamente.
Por ejemplo, si en nuestra ciudad se observa que, estadísticamente, determinada población de un cierto segmento y clase social, de sexo masculino y con una edad promedio de 40 años, es más proclive a cometer delitos, una máquina asumiría que todo individuo que encaje en ese perfil es, por ende, “necesariamente" un delincuente.
En algunos países ya se han registrado casos de “prejuicios" de máquinas en procesos de revisión automatizada de perfiles profesionales: La inteligencia artificial del sistema rechazaba automáticamente todos los currículos de mujeres, porque la posición ofertada había sido históricamente ocupada por varones. Una discriminación por razón de sexo que, seguramente, un reclutador humano no habría consentido.
Empezamos a dar el poder a las máquinas para que tomen decisiones cotidianas que afectan la vida de las personas, pero no están capacitadas para abordar cuestiones morales, como en este último caso: ¿por qué rechazar a todas las candidatas femeninas como el criterio concluyente para ocupar un empleo?
El aspecto a considerar en un bot es que los algoritmos con los cuales funciona están concebidos básicamente para resoluciones matemáticas; no consideran así la ética, conducta y comportamiento humanos en el marco de sus libertades, deberes y derechos fundamentales.
Se ha tenido noticia de atropellos a peatoneso ciclistas por parte de autos autónomos que, aunque estaban supervisados por un operador humano tras el guía, un sistema completamente autónomo de inteligencia artificial llevaba el control. El auto decidió chocar al peatón como alternativa a salvar al supervisor a bordo del vehículo, cuya vida es, para su algoritmo, prioritaria.
Se plantean en casos así cuestiones éticas y legales. ¿Quién es el responsable del accidente, el supervisor o el vehículo que mantiene el control y toma la decisión de chocar a un peatón como un “mal menor"? El vehículo, al fin y al cabo, cumplió su cometido como máquina “inteligente".
Esto deja claro que es primordial poder tener más control sobre cómo los sistemas recogen y procesan los datos y cómo los utilizan. Porque no se trata de temer a la inteligencia artificial, sino más bien controlar bien los procesos que llevan a cabo las personas que desarrollan estos programas informáticos para que esa inteligencia artificial logre tomar decisiones más acordes a las de la inteligencia humana.
Si actúan con integridad y pensando siempre en el bien común del ser humano, los desarrolladores serán responsables de crear una inteligencia artificial que apoye a la persona y a la sociedad en su progreso y crecimiento. Por igual, hay que crear los mecanismos para que el acceso a los datos por parte de cualquier persona sea sencillo, justo y responsable, para que los consumidores y ciudadanos en general confíen en la tecnología y esta les garantice que protege su privacidad e imagen personal en todo momento.
Una muestra de cómo esa imagen personal y la propia credibilidad está en juego la constituyen los llamados deepfakes, desarrollos informáticos que utilizan el audio e incluso la voz de una persona y los manipulan de forma fraudulenta, haciéndolos pasar por completamente veraces. Esto significa que hay que trabajar por mayor transparencia, por el uso de datos abiertos, contar con comités éticos en empresas de desarrollo informático, aprobar leyes y reglamentos a nivel estatal que velen por la protección de los datos personales y su integridad.
Otro aspecto fundamental es la formación en capacidades tecnológicas de la población, a todos los niveles. Hay que invertir en habilidades tecnológicas de forma importante, desde los gobiernos a las empresas privadas, para garantizar una correcta ciudadanía digital, reducir la brecha social y mitigar los efectos negativos que pueden surgir con determinados desarrollos de la inteligencia artificial.
Por igual, este tipo de capacitación se convertirá en parte de la formación continua de los trabajadores, por lo que las empresas deberán considerarlo en sus planes internos de desarrollo de carrera para no perder competitividad ni cuota de mercado.Por supuesto, también implica fortalecer la ciberseguridad, especialmente en infraestructuras de redes de portabilidad. A mayor codependencia tecnológica, mayor riesgo asumimos de ciberataques, ocasionados en muchas ocasiones por la propia inconsciencia o desinformación del ciudadano. • Se hace necesaria una información continua para elevar el nivel de conocimiento de la gente en este aspecto y hacer frente al cibercrimen
Recientemente, los medios destacaban el último lanzamiento de Microsoft en este ámbito: DeepSinger, un desarrollo de inteligencia artificial, basada en machine learning, que es capaz de cantar con una voz "casi humana" (por el momento en inglés y en chino mandarín), lo cual abre interrogantes sobre cómo evolucionará la industria de la música a raíz de una innovación así. • El científico Stephen Hawking pensaba que el desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana.
Y para eso no falta mucho, al parecer. Hace poco el empresario Elon Musk, que está muy enfocado en el desarrollo de esta tecnología, advirtió que las personas están subestimando el rápido desarrollo del aprendizaje automático debido a los avances tecnológicos y que en un lapso de cinco años la IA adelantará a la inteligencia humana, pero que eso no será el fin del mundo.
Lo cierto es que estamos en un momento de adaptación y aprendizaje para seguir avanzando: la inteligencia humana tendrá que convivir, desarrollarse y transformarse junto con la inteligencia artificial, aprovechando todo lo bueno que trae y mitigando los riesgos de un uso malintencionado.
Llegará el momento en que la inteligencia artificial anticipe crisis sanitarias y económicas globales como la que estamos viviendo y ayude a la humanidad a evitarlas y evitar sus dramáticas consecuencias en coste de vidas y de perjuicios económicos.
Estándares morales dirigidos a humanos, a los creadores de tecnología. Los principios son los siguientes: • Se debe asegurar que la IA está centrada en el ser humano. • Se debe prestar atención a los grupos vulnerables, como los menores de edad o las personas con discapacidades. • Debe respetar los derechos fundamentales y la regulación aplicable. • Debe ser técnicamente robusta y fiable. • Debe funcionar con transparencia. • No debe restringir la libertad humana.