
Ética de la IA
José Manuel López García
Asistimos, sin ninguna duda, a una de las mayores transformaciones en la historia de la civilización humana. La revolución de la Inteligencia Artificial que está en sus inicios ya está causando cambios, en las formas de vida de las personas, en todo el planeta. Pero es solo el principio. El peligro está en que amenaza con modificar las relaciones sociales, los sistemas cognitivos, las estructuras políticas y también nuestras categorías éticas. La era de la posverdad en la que está instalada la sociedad actual, es un resultado de esta negación de una ética universal basada en lo verdadero, el bien y la justicia. Los valores éticos son infravalorados y esto es otro problema muy serio. Si se niegan los hechos, algo que ya sucede, la convivencia de los ciudadanos se enfrenta al caos, la intolerancia, la censura y el poder totalitario o sin control. Es una sociedad en la que ya predomina el relativismo más absoluto, y no reconoce el valor de nada. Es el nihilismo en su máxima expresión. Lo que está en juego es el sentido del mundo humano controlado, por los algoritmos de las grandes empresas tecnológicas, que poseen las redes sociales con mayor número de usuarios, y que gozan ya de más poder que algunos países. EL filósofo José Antonio Marina ya ha advertido, en su reciente libro publicado, de la necesidad de una ética, que no se limite a regular después de que ocurran los desastres, sino que prevea y oriente el rumbo de la innovación tecnológica. Su libro se titula La vacuna contra la insensatez y es magnífico. Hace falta una gobernanza ética a nivel mundial, para que la IA no despliegue su fuerza sin control o pautas éticas, que protejan a las personas. Esto es todo un reto para los próximos diez años.
La conciencia humana es lo que determina lo que es realmente el respeto, lo justo, lo digno, la libertad, y el bien y la verdad, como bases civilizatorias irrenunciables. No se debe olvidar que con la IA generativa que aprende, razona y actúa por sí sola, en entornos complejos puede causar con frecuencia resultados imprevisibles, ya que no evita los sesgos negativos, en la interpretación de los datos y los hechos. Algo que si puede neutralizar la inteligencia humana. Además, la autonomía de la Inteligencia Artificial plantea un gran peligro añadido, que es la opacidad y la falta de control, algo que reconocen los expertos en estas cuestiones. De hecho, muchas de las redes neuronales profundas actuales funcionan como cajas negras, que no pueden ser interpretadas ni por sus creadores tecnológicos o programadores. Por tanto, otro de los grandes problemas es la pérdida del control sobre los algoritmos, que ya en algunos países más avanzados tecnológicamente deciden y toman decisiones, en cuestiones que afectan directamente a los ciudadanos.
Lo que es una reducción o eliminación directa de la autonomía personal o colectiva. Lo que realmente es muy grave. Y esto irá a más en los próximos años, si no se implementan medidas legales, basadas en principios y normas éticas universales.
En los próximos cinco años, la IA podrá tomar decisiones autónomas en áreas como: diagnóstico médico, evaluación crediticia, selección de personal, administración judicial, control fronterizo, vigilancia y seguridad, etc. Además, puede aumentar la desinformación automatizada y la manipulación de masas.
Una IA, por ejemplo, puede crear millones de bulos en un día, con una efectividad que supera la capacidad de verificación humana, por su cantidad y distribución a nivel mundial. Los vídeos manipulados con IA o las falsificaciones digitales ya son una realidad cotidiana, no del futuro.
Es necesario, por tanto, un adecuado control de las redes de distribución del contenido automatizado. Además, la Inteligencia Artificial sustituirá en los próximos cinco años a millones de trabajadores no solo en tareas manuales, también en actividades cognitivas: redacción, traducción, atención al cliente, diseño gráfico, y otras muchas. La desigualdad económica se puede agudizar, si no se regula bien la tecnología digital y sus efectos. Es indispensable también una regulación internacional de la digitalización, porque los errores algorítmicos pueden causar tremendos problemas: hackeos, decisiones sin responsabilidad que pueden provocar daños o desastres irreparables. El mismo Elon Musk dice que la IA mal regulada puede ser más peligrosa que una bomba nuclear. No es que tenga malicia es que su programación hace que, aunque no sabe lo que hace, lo realiza muy bien todo, pero sin analizar las consecuencias o efectos negativos.
El diálogo cada vez mayor con las máquinas: Ordenadores y móviles, produce que una parte de la gente piense cada vez menos por sí misma. Se está erosionando la capacidad crítica, la reflexión lenta y la creatividad. La tecnología sin gobernanza moral es amoral, sin duda. Puesto que la ética exige responsabilidad, no puede ser negada. Y en la sociedad superficial en la que vivimos parece que la responsabilidad, no se quiere aceptar en numerosas situaciones. Con el desarrollo de la tecnología digital se pueden formar tecnocracias autoritarias en los países. Es otro riesgo que neutralizar.
CD/YC
* Las opiniones y puntos de vista expresadas son responsabilidad exclusiva del autor y no necesariamente reflejan la línea editorial de Cambio Digital.
Otras Columnas:
Ago 01, 2025 / 09:10
Jul 25, 2025 / 09:32
Jul 18, 2025 / 09:39
Jul 13, 2025 / 13:38
Jul 04, 2025 / 12:49
Jun 27, 2025 / 12:43
Jun 20, 2025 / 13:18
Jun 13, 2025 / 12:32
Jun 06, 2025 / 12:47
May 30, 2025 / 12:18
May 23, 2025 / 11:57
May 16, 2025 / 12:37
May 09, 2025 / 12:55
May 02, 2025 / 12:53
Abr 25, 2025 / 13:14
Abr 18, 2025 / 10:11
Abr 11, 2025 / 12:12
Abr 04, 2025 / 12:00
Mar 28, 2025 / 12:56
Mar 21, 2025 / 14:32
Mar 14, 2025 / 13:11
Mar 07, 2025 / 13:43
Feb 28, 2025 / 14:24
Feb 21, 2025 / 14:49
Feb 14, 2025 / 14:51
Filosofía del Estado del bienestar
Feb 07, 2025 / 13:34
Ene 31, 2025 / 14:12
Ene 24, 2025 / 13:03
Ene 17, 2025 / 13:11
Ene 10, 2025 / 12:57
Ene 03, 2025 / 12:38
Dic 27, 2024 / 12:34
Dic 20, 2024 / 13:12
Dic 14, 2024 / 11:03
Dic 06, 2024 / 13:22
Nov 29, 2024 / 12:45
Redes sociales sin menores de 16 años
Nov 22, 2024 / 13:01
Nov 15, 2024 / 14:42
Nov 08, 2024 / 13:29
Nov 02, 2024 / 08:14
Autodisciplina y responsabilidad
Oct 04, 2024 / 11:37
Sep 27, 2024 / 12:48
Sep 20, 2024 / 11:55
Libertad informativa y democracia
Sep 13, 2024 / 12:12
Interpretación optimista de la vida
Sep 06, 2024 / 14:11
Ago 30, 2024 / 11:39
Ago 23, 2024 / 13:26
Ago 16, 2024 / 12:02
Jul 27, 2024 / 08:44
El Tribunal Supremo recurre la amnistía
Jul 19, 2024 / 11:55
Jul 12, 2024 / 12:09
Jul 05, 2024 / 12:16
Filosofía existencialista de Jaspers
Jun 28, 2024 / 12:19
Jun 21, 2024 / 11:57
Jun 14, 2024 / 12:43
Jun 06, 2024 / 11:29
May 31, 2024 / 12:27
May 24, 2024 / 12:02
Control de la Inteligencia Artificial
May 17, 2024 / 12:52
Materialismo filolosófico de Gustavo Bueno
May 10, 2024 / 12:16
Sin prácticas bancarias monopolísticas
May 03, 2024 / 12:41
Abr 26, 2024 / 11:57
Abr 19, 2024 / 12:18
Pensiones y solidaridad internacional
Abr 12, 2024 / 12:11
Abr 05, 2024 / 12:24
Mar 29, 2024 / 13:33
Mar 15, 2024 / 13:39
La filosofía como reina de las ciencias
Mar 08, 2024 / 13:23
Mar 01, 2024 / 14:12
Feb 23, 2024 / 13:38
Feb 16, 2024 / 12:30
Feb 09, 2024 / 13:39
El poder del mérito y la creatividad
Nov 05, 2023 / 14:28
Oct 29, 2023 / 14:29
Oct 21, 2023 / 13:11
Oct 15, 2023 / 10:43
Oct 08, 2023 / 13:15
Sep 08, 2023 / 11:58
Jul 24, 2023 / 11:20
Gobierno de Pedro Sánchez o repetición electoral
Jul 12, 2023 / 09:21
Jun 19, 2023 / 16:12
Teoría del Conocimiento Aristotélica
Jun 12, 2023 / 10:07
Jun 07, 2023 / 19:54
Jun 03, 2023 / 11:34
May 26, 2023 / 10:34
May 18, 2023 / 19:09
May 11, 2023 / 18:00
May 04, 2023 / 19:17
Abr 27, 2023 / 14:41
Abr 20, 2023 / 14:34
Soluciones políticas, no explicaciones
Abr 10, 2023 / 08:51
Mar 30, 2023 / 14:15
Mar 23, 2023 / 11:27
Excesiva ciberdelincuencia sin control
Mar 14, 2023 / 18:55
Efectos de las violaciones en menores
Feb 28, 2023 / 20:07
Feb 18, 2023 / 11:38
Feb 10, 2023 / 13:24
Feb 01, 2023 / 19:11
Falta de atención a los pacientes
Ene 24, 2023 / 15:05
Ene 23, 2023 / 17:15
Ene 16, 2023 / 16:28
Ene 09, 2023 / 14:50
Dic 30, 2022 / 11:02
Mucha burocracia y medidas escasas
Dic 23, 2022 / 08:53
La determinación de Teodosio "El Grande"
Dic 08, 2022 / 10:49
Asturias, ninguneados y olvidado
Nov 28, 2022 / 19:39
Influencia entre cuerpo y mente
Nov 14, 2022 / 10:18
Excesiva burocracia y trabajo para los profesores
Nov 07, 2022 / 19:19
Oct 31, 2022 / 10:30
La muerte muestra infinidad de posibilidades
Oct 25, 2022 / 11:36
Oct 17, 2022 / 19:59
Que no se quejen de la falta de clientes
Oct 11, 2022 / 08:28
Oct 04, 2022 / 14:48
Oct 03, 2022 / 18:30
Sep 26, 2022 / 16:22
Sep 12, 2022 / 17:28
Ruina total en la sanidad pública
Ago 23, 2022 / 08:48
Ago 16, 2022 / 14:50
Ago 09, 2022 / 09:15
Ago 02, 2022 / 09:36
Jul 02, 2022 / 11:02
Jun 25, 2022 / 10:14
Jun 18, 2022 / 11:26
Jun 11, 2022 / 11:12
Impugnación del proceso de estabilización
Jun 04, 2022 / 09:42
Profesores a la calle a punto de jubilarse
May 28, 2022 / 09:47
May 21, 2022 / 10:40
May 14, 2022 / 10:13
May 07, 2022 / 11:39
Abr 30, 2022 / 11:35
Abr 23, 2022 / 13:42
Abr 16, 2022 / 09:18
Abr 08, 2022 / 09:56
Abr 01, 2022 / 09:06
Mar 25, 2022 / 10:27
Mar 18, 2022 / 19:58
Mar 12, 2022 / 12:45
Mar 04, 2022 / 20:56
Feb 25, 2022 / 10:28
Feb 18, 2022 / 11:12
Feb 11, 2022 / 10:14
Feb 04, 2022 / 18:22
Ene 24, 2022 / 19:42
Ene 17, 2022 / 11:57
Ene 10, 2022 / 17:33
Dic 21, 2021 / 18:32
Dic 13, 2021 / 12:04
Dic 07, 2021 / 09:55
Nov 30, 2021 / 11:12
Nov 23, 2021 / 21:06
Nov 15, 2021 / 17:46
Nov 08, 2021 / 11:06
Oct 30, 2021 / 10:15
Oct 19, 2021 / 19:42
Oct 08, 2021 / 21:32
Oct 01, 2021 / 11:44
Sep 24, 2021 / 13:39
Sep 17, 2021 / 11:48
Ago 12, 2021 / 14:31