/ martes 4 de junio de 2024

Trabajadores de empresas de IA alertan de opacidad ante falta de reglamento internacional

Los empleados advierten que OpenAI, Google DeepMind y Anthropic, solo tienen vagas obligaciones de compartir información con los gobiernos, pero no rinden cuentas con la sociedad civil

Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

Actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil

Piden protección para los denunciantes

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

Han habido tímidos intentos de regulación

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

Actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil

Piden protección para los denunciantes

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

Han habido tímidos intentos de regulación

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Ecología

¿Los murciélagos son grandes polinizadores? Gracias a ellos disfrutamos del mango y cacao

Aunque hay muchos mitos que lo ponen en peligro, en realidad este pequeño mamífero es inofensivo y un gran dispersor de semillas

Local

Visita de reliquia de san Judas Tadeo es oportunidad para reforzar la fe: padre Helkyn

Las comunidades por donde pasará la reliquia se han ido disponiendo para que no sea solo un evento

Local

Videojuegos son importantes para la interacción de infantes y adolescentes, pero con moderación

Es importante eliminar el estigma asociado a los videojuegos, especialmente entre los más jóvenes

Local

Pobreza sigue en aumento: veracruzanos no acceden a una vida digna

Las carencias sociales colocan a Veracruz entre los estados con mayor número de personas afectadas por la pobreza

Deportes

Vuelan adolescentes en el Trail Villas Pico de 2.5 kilómetros

Después de las 6:30 de la mañana comenzaron a llegar al punto de partida las niñas y niños

Local

Tránsito lento por reparaciones en el Paseo Colón de Orizaba, ¿cuánto durarán las obras?

Personal de Mantenimiento indica que se hace el cambio porque es un riesgo para los peatones que cruzan la vía