A fim de melhorar a segurança e a confiabilidade dos modelos de inteligência artificial, a OpenAI anunciou recentemente uma série de iniciativas importantes. Estas iniciativas destinam-se a reforçar os processos de segurança interna e a impor controlos mais rigorosos sobre o desenvolvimento e a implantação de modelos de IA de alto risco, minimizando assim os riscos potenciais e garantindo o desenvolvimento responsável da tecnologia de IA.
A empresa de inteligência artificial OpenAI reforçou os seus processos internos de segurança, estabeleceu um grupo consultivo de segurança e deu ao seu conselho de administração poder de veto sobre inteligência artificial de alto risco. A OpenAI atualizou o seu quadro preparatório para clarificar o caminho para avaliar, mitigar e determinar os riscos inerentes aos modelos. A empresa avalia os modelos de acordo com os níveis de risco e toma as medidas de mitigação correspondentes. Os modelos avaliados como de alto risco não poderão ser implantados ou desenvolvidos. A OpenAI também estabeleceu um grupo consultivo de segurança multifuncional para revisar relatórios de especialistas e fazer recomendações de alto nível. O conselho e a liderança decidirão em conjunto se lançarão ou arquivarão o modelo. Com esta medida, a OpenAI procura evitar que produtos ou processos de alto risco sejam aprovados sem o conhecimento ou aprovação do conselho de administração.
Através destas novas medidas, a OpenAI mostra que leva a sério as questões de segurança da inteligência artificial e dá um bom exemplo para outras empresas de inteligência artificial. Isto significa que a indústria da inteligência artificial está a explorar ativamente modelos de desenvolvimento e implementação mais seguros e responsáveis, estabelecendo uma base sólida para o desenvolvimento saudável da tecnologia de inteligência artificial.