por: Elena Velásquez
29/09/2023 | 8:00 am
Pixabay - Imagen Referencial
Recientemente, cuatro de las compañías tecnológicas más renombradas crearon una plataforma especial para vigilar los avances de la inteligencia artificial (IA).
De acuerdo a la información revelada, Anthropic, Google, Microsoft y OpenAI, anunciaron el lanzamiento de “Frontier Model Forum”; que es una especie de “foro” que ayudará a los especialistas a “regular” el desarrollo de este tipo de tecnología.
“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano (…) Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que esta beneficie a toda la humanidad”, dijo al respecto el presidente de Microsoft, Brad Smith.
A propósito de ello, los participantes indicaron que esta plataforma está llamada a ser “un organismo de la industria centrado en garantizar el desarrollo seguro y responsable de modelos de IA fronterizos».
En este sentido, detallaron que, con esta plataforma se desea “avanzar la investigación sobre la seguridad de la IA”, “colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad”, mediante la promoción de un “estándar” que permita reducir los riesgos del proceso y apostar por mejores prácticas en esta área.
“El Foro será un vehículo para debates y acciones entre organizaciones sobre seguridad y responsabilidad de la IA (…) abordará los grandes desafíos de la sociedad (…) así como la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las amenazas cibernéticas”, explicaron.