Ante el uso constante y en aumento de tecnologías como la inteligencia artificial (IA) es necesario reflexionar sobre su dimensión ética y su impacto en la sociedad. Desde el aspecto moral, el Diccionario de la Real Academia Española define ética como parte de la filosofía que estudia el comportamiento del hombre desde el punto de vista del bien o del mal, y los principios por los que debe regirse teniendo como finalidad el bien.
Cuando hablamos de la ética y la inteligencia artificial se busca establecer principios para su desarrollo responsable. La ética aplicable a la IA también busca establecer valores que contribuyan a prevenir daños mientras promueve que la tecnología beneficie a las personas.
La creación de robots capaces de tomar decisiones mediante algoritmos plantea serios cuestionamientos éticos que van desde el posible impacto en los derechos humanos hasta la responsabilidad de la toma de decisiones automatizadas. Por ello, es esencial definir un conjunto de principios éticos que guíen el desarrollo y la implementación de la IA en cada empresa con el fin de garantizar la transparencia en las operaciones, la responsabilidad en la toma de decisiones y el compromiso con la protección de los datos, entre otros aspectos.
Si tomamos como modelo la legislación aprobada en Europa recientemente, para regular la IA la primera recomendación se basa en que la ética de la inteligencia artificial debe favorecer los derechos fundamentales de la sociedad y proteger la toma de decisiones de los seres humanos sin afectar su autonomía. La IA debe emplearse para mejorar la vida de la humanidad, debe respetar y ser sostenible con el medioambiente y debe asegurar un impacto mínimo social. También, debe ser transparente en los datos y procedimientos mientras debe reflejar y respetar la amplia gama de identidades así como experiencias humanas.
El modelo clasifica las aplicaciones de la IA en categorías de riesgo: riesgo inaceptable, aplicaciones de alto riesgo y aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran medida sin regular, según descrito en el EU Artificial Intelligence Act. Esta nueva legislación trata de regular el uso de una tecnología que revolucionó al mundo de forma nunca antes vista, con una rapidez sin igual y con un impacto en cómo vivimos y tomamos decisiones.
¿Quién o quiénes son los responsables de la ética de la IA? Todos los que participan de la misma incluidos gobiernos, empresas y ciudadanos, desarrolladores e investigadores. Son varios los dilemas éticos que presentan organizaciones como la Unesco que incluyen sesgos, el uso de la IA en decisiones judiciales y la toma de decisiones en vehículos autónomos. Todos buscan responder cuál es la decisión éticamente correcta ante diferentes escenarios.
En mi opinión, mientras se establece una regulación verdadera le corresponde a los gobiernos, empresas e individuos ser transparentes y éticos con relación al uso de la IA. Al final del día solo los seres humanos contamos con valores que rigen nuestras vidas para diferenciar el bien del mal.

