www.gacetadeprensa.com
Google modifica su política de IA para permitir usos militares

Google modifica su política de IA para permitir usos militares

jueves 06 de febrero de 2025, 15:43h

Google ha actualizado su política de ética en inteligencia artificial, permitiendo el uso de su tecnología en aplicaciones militares, un cambio que la empresa considera necesario para defender los principios democráticos. Los nuevos principios de Google omiten compromisos previos que prohibían el uso de IA para fines dañinos, como el desarrollo de armas. Ejecutivos de Google argumentan que la evolución de la IA requiere adaptaciones en sus políticas, aunque expertos advierten que esto podría facilitar un uso más perjudicial de la tecnología. Este movimiento se produce en un contexto más amplio de endurecimiento en las actitudes de grandes empresas tecnológicas.

Cambio en la política de ética de Google sobre inteligencia artificial

Ejecutivos de alto nivel de Google han justificado un cambio significativo en su política de ética relacionada con la inteligencia artificial, permitiendo que su tecnología sea utilizada en aplicaciones militares. Este ajuste ha sido presentado como una medida necesaria para defender los principios democráticos.

Medios de comunicación han señalado que las nuevas directrices de Google sobre IA omiten el lenguaje que anteriormente prohibía el uso de esta tecnología para fines perjudiciales, como el desarrollo de armas o la vigilancia. Esta restricción había sido un pilar fundamental en la estrategia de la compañía desde 2018.

Publicaciones como Bloomberg y BBC News han destacado que las últimas directrices eliminan el compromiso de asegurar que la inteligencia artificial no se utilice de maneras “que probablemente causen” daño, citando específicamente el desarrollo de armamento como un ejemplo clave.

Adaptación a nuevas realidades tecnológicas

En un blog reciente, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto a Demis Hassabis, CEO y cofundador de Google DeepMind, profundizaron en las credenciales y la transparencia de la empresa en materia de IA. Sin embargo, enfatizaron que el continuo desarrollo tecnológico exige una adaptación constante por parte de la compañía.

Los ejecutivos señalaron que las capacidades emergentes de la inteligencia artificial “pueden presentar nuevos riesgos”, dado que esta ha evolucionado desde ser un “tema de investigación especializado en laboratorio” hasta convertirse en una tecnología tan omnipresente como los teléfonos móviles e Internet, utilizada por “miles de millones de personas”.

Afirmaron que gobiernos, empresas y otras organizaciones deben colaborar para establecer principios que promuevan la seguridad nacional, entre otros objetivos.

Preocupaciones sobre el uso indebido de la IA

Expertos consultados por Bloomberg advirtieron que los nuevos principios de gobernanza podrían facilitar un uso más cuestionable de la inteligencia artificial. Este movimiento por parte de Google se produce en un contexto más amplio donde grandes empresas tecnológicas están adoptando posturas más rígidas, incluyendo cambios en programas de verificación fáctica y diversidad.

A medida que estas transformaciones se desarrollan, surge una interrogante crítica sobre cómo se equilibrarán los avances tecnológicos con las consideraciones éticas y sociales necesarias para garantizar su uso responsable.

Preguntas sobre la noticia

¿Qué cambio ha realizado Google en su política de ética de IA?

Google ha modificado su política de ética en inteligencia artificial, permitiendo que su tecnología sea utilizada en aplicaciones militares. Este cambio ha sido defendido por altos ejecutivos de la empresa como necesario para proteger los principios de democracia.

¿Qué aspectos han sido eliminados de los principios de IA de Google?

Los principios actualizados han omitido el compromiso de no utilizar la tecnología para fines perjudiciales, incluyendo el desarrollo de armas y la vigilancia, lo cual era fundamental desde 2018.

¿Quiénes comentaron sobre este cambio en las políticas de Google?

James Manyika, vicepresidente senior de investigación y tecnología, y Demis Hassabis, CEO y cofundador de Google DeepMind, discutieron sobre la necesidad de adaptar las políticas a medida que la tecnología evoluciona.

¿Qué riesgos se mencionan respecto al uso militar de la IA?

Los expertos advierten que los nuevos principios podrían llevar a un uso más nefasto de la inteligencia artificial, especialmente dado el contexto actual donde las actitudes hacia la regulación tecnológica están endureciéndose.

¿Te ha parecido interesante esta noticia?    Si (1)    No(0)
Compartir en Google Bookmarks Compartir en Meneame enviar a reddit compartir en Tuenti

+
0 comentarios