Google prometió por escrito no usar la IA para armas o vigilancia. Acaba de echarse atrás: poderoso caballero es Don Dinero
Alphabet, la empresa matriz de Google, ha cambiado, reciente y silenciosamente, la declaración de principios éticos relativa al uso su tecnología de inteligencia artificial en aplicaciones militares y de vigilancia, suprimiendo la prohibición que hasta ahora (y desde 2018) impedía usarla en esta clase de casos. Una versión anterior de los principios de IA de la compañía, afirmaba que la compañía no desarrollaría armas "u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente lesiones a las personas", así como aquellas "que recopilen o utilicen información para vigilancia violando las normas internacionalmente aceptadas". Esos objetivos, sin embargo, ya no se encuentran entre los Principios de IA publicados en su sitio web. Esto, claro, ha generado una ola de preocupación entre expertos y organizaciones de la sociedad civil. Un cambio de paradigma: la ética de la IA, al servicio de la 'democracia' La compañía ha suprimido dichas restricciones argumentando que la evolución de la tecnología y la creciente competencia global en IA exigen una revisión de sus principios. En una publicación firmada por James Manyika, vicepresidente sénior de tecnología y sociedad de Alphabet, y Demis Hassabis, CEO de Google DeepMind, estos directivos han defendido ese cambio de rumbo alegando la necesidad de que "las democracias lideren el desarrollo de la IA" y de que ésta se utilice para "proteger a las personas, promover el crecimiento global y apoyar la seguridad nacional". Por supuesto, es irrelevante que, a partir de ahora, Google DeepMind pueda entrar a formar parte de la lista de contratistas del Pentágono, que cada año reciben casi la mitad del presupuesto del Dep. de Defensa estadounidense (en 2020, alrededor de 400.000 millones de dólares). En Genbeta "Creo que lo más probable es que muera a manos de una IA", dice el antiguo responsable de que ChatGPT no se vuelva contra nosotros Reacciones externas e internas Anna Bacciarelli, investigadora senior de IA en Human Rights Watch, advirtió que este cambio representa un "retroceso preocupante" y un ejemplo de por qué "los principios voluntarios no son un sustituto adecuado de regulaciones y leyes vinculantes". Además, recordó que la aplicación de IA en el campo de batalla podría generar decisiones autónomas letales sin rendición de cuentas, lo que aumenta la probabilidad de crímenes de guerra, al tiempo que dificulta la rendición de cuentas por los mismos. Por su parte, también los empleados de Google expresaron su consternación por el cambio de políticas, y lo hicieron recurriendo a Memegen, el tablero de mensajes interno de la empresa. Uno de los memes publicados en Memegen mostraba al CEO de la compañía, Sundar Pichai, consultando en el motor de búsqueda de Google "¿cómo convertirme en un contratista de armas?". Un historial de tensiones con la IA militar El cambio de política de Google contrasta con decisiones tomadas por la compañía en el pasado: en 2018, tras fuertes protestas internas, la empresa decidió no renovar su participación en el controvertido 'Proyecto Maven', un contrato del Pentágono para el análisis de imágenes de drones mediante IA. Aquella decisión vino motivada por la oposición de miles de empleados, y tras la renuncia de varios ingenieros. Sin embargo, bajo el liderazgo de Sundar Pichai, Google ha buscado una mayor participación en contratos gubernamentales. Un ejemplo es el 'Proyecto Nimbus', un acuerdo de 1.200 millones en colaboración con Amazon para proveer tecnología en la nube y herramientas de IA al gobierno israelí y su ejército. Este contrato se terminó firmando pese a haber generado tensiones internas, protestas de empleados y el despido de más de 50 trabajadores. En Genbeta La meta de este bot era destruir a la Humanidad, y rápidamente descubrió las armas nucleares con la ayuda de GPT-4 IA con armas y el futuro de la Humanidad El creciente uso de IA en conflictos como la guerra en Ucrania ha mostrado su potencial para ofrecer ventajas militares significativas, pero también ha intensificado los llamados a una mayor regulación. La inclusión de sistemas autónomos en operaciones militares plantea cuestiones éticas y legales sin precedentes, incluyendo la posibilidad de que decisiones críticas de vida o muerte sean tomadas por algoritmos sin supervisión humana. El 'Reloj del Apocalipsis', todo un símbolo del riesgo global (una organización formada por científicos que se dedican a calcular cómo de cerca estaría la autodestrucción de la Humanidad), citó hace poco la creciente autonomía de los sistemas de armas impulsados por IA como una de las mayores amenazas para nosotros. Imagen | Marcos Merino mediante IA + Logo En Genbeta | Todas las grandes potencias están de acuerdo en que la IA no controle el botón rojo nuclear. Todas... menos una
Alphabet, la empresa matriz de Google, ha cambiado, reciente y silenciosamente, la declaración de principios éticos relativa al uso su tecnología de inteligencia artificial en aplicaciones militares y de vigilancia, suprimiendo la prohibición que hasta ahora (y desde 2018) impedía usarla en esta clase de casos.
Una versión anterior de los principios de IA de la compañía, afirmaba que la compañía no desarrollaría armas "u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente lesiones a las personas", así como aquellas "que recopilen o utilicen información para vigilancia violando las normas internacionalmente aceptadas".
Esos objetivos, sin embargo, ya no se encuentran entre los Principios de IA publicados en su sitio web. Esto, claro, ha generado una ola de preocupación entre expertos y organizaciones de la sociedad civil.
Un cambio de paradigma: la ética de la IA, al servicio de la 'democracia'
La compañía ha suprimido dichas restricciones argumentando que la evolución de la tecnología y la creciente competencia global en IA exigen una revisión de sus principios.
En una publicación firmada por James Manyika, vicepresidente sénior de tecnología y sociedad de Alphabet, y Demis Hassabis, CEO de Google DeepMind, estos directivos han defendido ese cambio de rumbo alegando la necesidad de que "las democracias lideren el desarrollo de la IA" y de que ésta se utilice para "proteger a las personas, promover el crecimiento global y apoyar la seguridad nacional".
Por supuesto, es irrelevante que, a partir de ahora, Google DeepMind pueda entrar a formar parte de la lista de contratistas del Pentágono, que cada año reciben casi la mitad del presupuesto del Dep. de Defensa estadounidense (en 2020, alrededor de 400.000 millones de dólares).
Reacciones externas e internas
Anna Bacciarelli, investigadora senior de IA en Human Rights Watch, advirtió que este cambio representa un "retroceso preocupante" y un ejemplo de por qué "los principios voluntarios no son un sustituto adecuado de regulaciones y leyes vinculantes".
Además, recordó que la aplicación de IA en el campo de batalla podría generar decisiones autónomas letales sin rendición de cuentas, lo que aumenta la probabilidad de crímenes de guerra, al tiempo que dificulta la rendición de cuentas por los mismos.
Por su parte, también los empleados de Google expresaron su consternación por el cambio de políticas, y lo hicieron recurriendo a Memegen, el tablero de mensajes interno de la empresa. Uno de los memes publicados en Memegen mostraba al CEO de la compañía, Sundar Pichai, consultando en el motor de búsqueda de Google "¿cómo convertirme en un contratista de armas?".
Un historial de tensiones con la IA militar
El cambio de política de Google contrasta con decisiones tomadas por la compañía en el pasado: en 2018, tras fuertes protestas internas, la empresa decidió no renovar su participación en el controvertido 'Proyecto Maven', un contrato del Pentágono para el análisis de imágenes de drones mediante IA. Aquella decisión vino motivada por la oposición de miles de empleados, y tras la renuncia de varios ingenieros.
Sin embargo, bajo el liderazgo de Sundar Pichai, Google ha buscado una mayor participación en contratos gubernamentales. Un ejemplo es el 'Proyecto Nimbus', un acuerdo de 1.200 millones en colaboración con Amazon para proveer tecnología en la nube y herramientas de IA al gobierno israelí y su ejército. Este contrato se terminó firmando pese a haber generado tensiones internas, protestas de empleados y el despido de más de 50 trabajadores.
IA con armas y el futuro de la Humanidad
El creciente uso de IA en conflictos como la guerra en Ucrania ha mostrado su potencial para ofrecer ventajas militares significativas, pero también ha intensificado los llamados a una mayor regulación.
La inclusión de sistemas autónomos en operaciones militares plantea cuestiones éticas y legales sin precedentes, incluyendo la posibilidad de que decisiones críticas de vida o muerte sean tomadas por algoritmos sin supervisión humana.
El 'Reloj del Apocalipsis', todo un símbolo del riesgo global (una organización formada por científicos que se dedican a calcular cómo de cerca estaría la autodestrucción de la Humanidad), citó hace poco la creciente autonomía de los sistemas de armas impulsados por IA como una de las mayores amenazas para nosotros.
Imagen | Marcos Merino mediante IA + Logo
En Genbeta | Todas las grandes potencias están de acuerdo en que la IA no controle el botón rojo nuclear. Todas... menos una
-
La noticia
Google prometió por escrito no usar la IA para armas o vigilancia. Acaba de echarse atrás: poderoso caballero es Don Dinero
fue publicada originalmente en
Genbeta
por
Marcos Merino
.