Contrarrestar los problemas de seguridad que plantean las últimas tecnologías de IA

https://www.shine.cn/news/metro/2107101823/

En la Conferencia Mundial sobre Inteligencia Artificial que se está celebrando se están elaborando una serie de normas nacionales para salvaguardar la ciberseguridad y reprimir las aplicaciones ilegales de las tecnologías de inteligencia artificial.

Estas normas abarcan ámbitos como el audio y el vídeo sintéticos basados en la inteligencia artificial, la seguridad de los algoritmos de aprendizaje automático y la tecnología de identificación biométrica de la inteligencia artificial.

Las nuevas tecnologías de IA emergentes, como el deepfake, se están aplicando en áreas de filmación, tratamiento médico y realidad virtual, donde tienen el potencial de ser abusadas, advirtieron los expertos.

Las celebridades han sido víctimas de los vídeos deepfake después de que sus rostros se unieran a los de las estrellas del porno de forma digital. A algunas actrices famosas, como Scarlett Johansson, les cambiaron digitalmente sus rostros por los de actrices porno.

Las tecnologías de IA también se han utilizado en diversas estafas, como los fraudes de telecomunicaciones.

El abuso de las tecnologías amenaza incluso la seguridad social y nacional, dijeron los asistentes.

«Las tecnologías deepfake dificultan la obtención de pruebas y la identificación de imágenes por parte de la policía y las autoridades judiciales y se convierten en «armas» de la guerra de la información», dijo Tian Tian, director general de RealAI, una empresa de IA incubada en la Universidad de Tsinghua.

Los problemas de seguridad que plantean las nuevas tecnologías, como el deepfake, son un cuello de botella para la industria de la IA, dijo Tian.

La industria de la IA está experimentando una transformación desde el desarrollo rápido al desarrollo de alta calidad. La demanda de aplicaciones en escenarios complejos y de alto valor, como las finanzas y el tratamiento médico, está creciendo rápidamente. Sin embargo, también han surgido varios problemas de seguridad durante el proceso.

Además de los reglamentos y las normas, también se está adoptando un enfoque tecnológico para acabar con los problemas de seguridad que plantean las nuevas tecnologías de IA.

RealAI lanzó en la WAIC su plataforma DeepReal con tecnologías de contrarresto que pueden reconocer contenidos falsos, incluidas las caras falsas.

Puede aplicarse en diversos ámbitos, como la investigación policial, la seguridad en el ciberespacio, la protección de la reputación personal y la prevención de los fraudes cibernéticos, con una rápida identificación de imágenes y un alto índice de precisión en la identificación.

«La inteligencia artificial segura, fiable y digna de confianza es la tendencia futura, y la seguridad debe ser la base del desarrollo de la IA en la próxima fase», dijo Zhang Bo, académico de la Academia China de Ciencias y director del Instituto de Inteligencia Artificial de la Universidad de Tsinghua.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: