¿ES NECESARIO REGULAR LA INTELIGENCIA ARTIFICIAL?
¿ES NECESARIO REGULAR LA INTELIGENCIA ARTIFICIAL?
El concepto de ética ha sido analizado frente al ser humano desde el punto de vista de valores, moral, buenas costumbres y en este sentido se ha generado lo que se conoce como “ética humanista” cuyo centro es el ser humano. Es así como desde las épocas de los grandes filósofos griegos hemos invertidos siglos y siglos para acuñar conceptos de ética, moral, buenas costumbres aplicables al comportamiento del ser humano, tarea esta que no ha terminado ni terminará por el “devenir” o constante cambio en el comportamiento del ser humano
Con el advenimiento de la tecnología y en especial la llamada cuarta revolución industrial a nivel mundial se han iniciado interesantes discusiones relacionadas con la necesidad de generar reglas de comportamiento o de ética a la tecnología que cada vez es más disruptiva en la vida del ser humano. No obstante, por la novedad y complejidad del tema no se puede pensar en definiciones de la INTELIGENCIA ARTIFICIAL ni de reglas de ética terminadas y que hayan sido científicamente comprobadas.
El concepto de “cuarta revolución industrial” fue utilizado por primera vez por Klaus Schwab, fundador del Foro Económico Mundial (WEF) y se refiere a una etapa marcada por avances tecnológicos emergentes. La cuarta revolución industrial incluye el desarrollo de diferentes áreas como la robótica, la inteligencia artificial (IA), las cadenas de bloques (blockchain), la nanotecnología, el internet de las cosas, la computación cuántica, la biotecnología, la impresión 3D y los vehículos autónomos.
Antes de la cuarta revolución industrial, a través de la historia de la humanidad, se han definido otras tres revoluciones industriales que se definen a continuación:
- Primera revolución industrial: en la década de 1760, las sociedades agrarias y rurales comenzaron a transformarse en industriales y urbanas. El desarrollo de la máquina de vapor tuvo un papel esencial en esta etapa, ya que permitió el acceso a la energía hidráulica, lo que fomentó la mecanización de la agricultura y de la producción textil.
- Segunda revolución industrial: entre 1870 y 1914 se vio un gran crecimiento en las industrias del acero, del petróleo y de la electricidad para la producción en masa. Los avances de esta etapa son el teléfono, el bombillo, el fonógrafo y el motor de combustión interna. Durante esta época Henry Ford produce en masa el innovador Ford Modelo T, un auto fabricado en líneas de montaje.
- Tercera revolución industrial: es la etapa de los avances tecnológicos que comenzó durante la década de los 80. Los avances más destacados son el computador, internet y todas las tecnologías de la información y las comunicaciones. Con la digitalización, la información que antes se consumía o transmitía de manera analógica, fue sustituida por los medios digitales.
De esta manera llega la cuarta revolución industrial, que pretende fusionar los mundos físico, digital y biológico, impactando todas las disciplinas, economías e industrias e incluso desafiando ideas sobre lo que significa ser humano, de acuerdo con la definición del Foro Económico Mundial.
La cuarta revolución industrial se enfoca en la optimización de procesos y recursos mediante la recolección y el aprovechamiento de los datos. “Una revolución industrial se caracteriza por el surgimiento de nuevas tecnologías y nuevas maneras de percibir el mundo, que impulsan un cambio profundo en la economía y en la estructura de la sociedad", afirma Schwab.
Según el Foro Económico Mundial de 2019, estos son los datos más impactantes de esta revolución industrial:
- Es más común que las personas tengan celulares que servicios básicos como electricidad y agua.
- Los bebés nacidos desde el año 2017 tal vez nunca tengan que conducir un automóvil, ya que estos serán automatizados. Además, no tendrán ayuda en el servicio, sino robots que realicen las tareas cotidianas del hogar.
- Gracias a la conectividad, la transformación de la cuarta revolución industrial se está dando mucho más rápido que en las demás revoluciones.
- El 90% de los datos se crearon en los dos últimos años: videos, fotos, tuits, entre otros.
Asimismo, para el año 2025 se predicen estos avances:
- El 10% de las personas usarán ropa conectada a internet.
- Se pondrá en funcionamiento el primer robot para farmacia en Estados Unidos.
- Aparecerá el primer automóvil fabricado con una impresora 3D.
- El 5% de los productos de consumo se hará en impresoras 3D.
- El 90% de la población mundial tendrá acceso a internet.
- Los automóviles automáticos concentrarán el 10% de todos los vehículos en Estados Unidos.
- Existirá la primera ciudad con más de 50.000 habitantes y ningún semáforo.
- Se empleará inteligencia artificial en el consejo de administración de una empresa.
La IA y la robótica no son sino una de las varias tecnologías emergentes que impactarán a la sociedad. "La tecnología no es una fuerza exógena sobre la cual no tengamos control. No estamos limitados por una elección binaria entre ‘aceptar y vivir con ella’ o ‘rechazar y vivir sin ella’. En lugar de ello, debemos tomar el cambio tecnológico como una invitación a reflexionar sobre quiénes somos y cómo vemos el mundo", afirma Schwab en su libro “La cuarta revolución industrial”.
Según Andrés Ortega Klein Investigador senior asociado, Real Instituto Elcano en su artículo Geopolítica de la ética en Inteligencia Artificial, los principios que han de regir la ética en la Inteligencia Artificial (IA) son objeto de una multiplicidad de propuestas por parte de Estados, organizaciones internacionales y profesionales, y grandes empresas. Detrás hay una carrera geopolítica, con la idea de que estos principios se han de incorporar, en lo que es la parte más difícil, en una programación que siempre ha de quedar bajo control del ser humano. Es decir, la regulación de la IA representa un gran interés por parte de los Estados y bloques multilaterales pues ello representa manejo relevante de reglas que las empresas y la sociedad deberán seguir no solo en la concepción de la IA sino en el uso por parte de todos.
Para sorpresa de muchos Colombia no se ha quedado atrás en esta carrera regulatoria de la IA y en ese sentido el Departamento Administrativo de la Presidencia de la República en el año 2021 publicó el documento llamado MARCO ÉTICO PARA LA INTELIGENCIA ARTIFICIAL EN COLOMBIA en el que llevó a cabo la siguiente definición de la IA:
“La inteligencia artificial se entiende como un campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana o seres inteligentes, entendidos como aquellos que pueden adaptarse a situaciones cambiantes. Su base es el desarrollo de sistemas informáticos, la disponibilidad de datos y los algoritmos” (CONPES 3975).
El documento al que hacemos referencia genera un marco Ético como guía no obligatoria para la implementación de la inteligencia artificial en el sector público nacional. No obstante, en mi sentir, lo apasionante de la IA no es la regulación misma sino la tecnología que se desarrolla pero que países con importantes recursos económicos o grandes empresas multinacionales pueden desarrollar.
En la Unión Europea diversas instituciones han estado o están haciendo propuestas en materia de ética de la IA, en concreto la Comisión Europea del Parlamento Europeo y el Grupo de Expertos de Alto Nivel sobre IA. Como resultado tenemos que, bajo la óptica europea, la IA debe ser confiable y para ello observar 3 aspectos relevantes: (a) Legal: respetando todas las leyes y regulaciones aplicables. (b) Ética: respetando los principios y valores éticos. (c) Robusta: tanto desde una perspectiva técnica como teniendo en cuenta su entorno social.
Por lo anterior, tenemos que la UE ha desarrollado un conjunto de requisitos clave que los sistemas de inteligencia artificial deben cumplir para ser considerados confiables. No podemos extendernos en este artículo de introducción al tema por lo cual nos limitamos a señalar los requisitos dejando para otra publicación el desarrollo y aplicabilidad de cada uno para el caso de Colombia. Sin embargo, del conocimiento de los siguientes requisitos que generan confiabilidad en la IA podemos observar la gran importancia del estudio de estos interesantes temas para afrontar el futuro legal y reglamentario de la inteligencia artificial:
- Supervisión humana: los sistemas de inteligencia artificial deberían empoderar a los seres humanos, permitiéndoles tomar decisiones informadas y fomentar sus derechos fundamentales. Deben ser supervisados por seres humanos.
- Robustez técnica y seguridad: los sistemas de IA deben ser resistentes, resilientes y seguros ante eventuales intentos de manipulaciones o de pirateo y dotarse de planes de contingencia. Deben ser seguros, garantizar un plan alternativo en caso de que algo salga mal, además de ser precisos, confiables y reproducibles. Esa es la única forma de garantizar que también se puedan minimizar y prevenir daños no intencionales.
- Privacidad y gobernanza de datos: se debe garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la IA. Además de garantizar el pleno respeto de la privacidad y la protección de datos, también deben garantizarse mecanismos adecuados de gobernanza de datos, teniendo en cuenta la calidad e integridad de los datos, y garantizando el acceso legítimo a los datos.
- Transparencia: la IA debe de ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera y quienes interactúen con esos sistemas deben de saber que se trata de IA así como qué personas son sus responsables. Los modelos de negocio de datos, sistema e IA deben ser transparentes. Los mecanismos de trazabilidad pueden ayudar a lograr esto. Además, los sistemas de IA y sus decisiones deben explicarse de manera adaptada a las partes interesadas en cuestión. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA y deben estar informados de las capacidades y limitaciones del sistema.
- Diversidad, no discriminación y equidad: la IA debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que los algoritmos en que se base no tengan sesgos discriminatorios directos o indirectos. Se debe evitar el sesgo injusto, ya que podría tener múltiples implicaciones negativas, desde la marginación de los grupos vulnerables hasta la exacerbación de los prejuicios y la discriminación. Al fomentar la diversidad, los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e involucrar a las partes interesadas relevantes a lo largo de todo su círculo de vida.
- Bienestar social y ambiental: el desarrollo tecnológico debe de tener en cuenta su impacto social y medioambiental de forma que sea sostenible y ecológicamente responsable. Los sistemas de IA deberían beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, debe garantizarse que sean sostenibles y respetuosos con el medio ambiente. Además, deben tener en cuenta el medio ambiente, incluidos otros seres vivos, y su impacto social y social debe considerarse cuidadosamente.
- Responsabilidad: Se deben establecer mecanismos para garantizar la responsabilidad y la responsabilidad de los sistemas de IA y sus resultados. La auditabilidad, que permite la evaluación de algoritmos, datos y procesos de diseño, desempeña un papel clave, especialmente en aplicaciones críticas.
ALVARO CEBALLOS SUAREZ Abogado de la Universidad Externado de Colombia. Magíster de la Universidad de Estudios de Roma “Tor Vergata” en Unificación del Derecho y Derecho de la Integración. Italia 1997-1999. LLM (Master of Laws) Boston University en International Business Law. Estados Unidos 2015. Actualmente docente Universitario en temas de derecho privado, negocios internacionales. Cursando el segundo año del programa de Doctorado en Derecho de la Universidad Tor Vergata de Roma Italia. Arbitro del Centro de Arbitraje y Conciliación de la Cámara de Comercio de Bogotá para las especialidades de derecho comercial y de telecomunicaciones. Email: aceballos@latamlawlegal.com LinkedIn: Alvaro Ceballos Suárez
“Piloting phase of ethical guidelines”, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai y https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top.
Pak-Hang Wong (2016), “Responsible innovation for decent nonliberal peoples: a dilemma?”, Journal of Responsible Innovation, vol. 3, nº 2, pp. 154-168, DOI:10.1080/23299460.2016.1216709, http://dx.doi.org/10.1080/23299460.2016.1216709.
Comentarios
Artículo sin comentarios