Atualmente, a tecnologia de inteligência artificial está se desenvolvendo rapidamente, mas seus problemas de confiabilidade e segurança também estão atraindo crescente atenção. O professor Eerke Boiten, professor de segurança cibernética da Universidade de De Montford, questionou a confiabilidade dos sistemas de IA existentes, acreditando que eles estão em risco em aplicações importantes. Ele apontou que a IA generativa e grandes modelos de linguagem baseados em grandes redes neurais, como o ChatGPT, têm complexidades que dificultam a previsão e a verificação de seu comportamento, o que o torna potencialmente arriscado em aplicações que exigem um senso de responsabilidade.
No ambiente tecnológico atual, a inteligência artificial (IA) provocou uma discussão generalizada. Eerke Boiten, professor de segurança cibernética da Universidade de De Montford, disse que os sistemas de IA existentes têm deficiências fundamentais em gestão e confiabilidade e não devem ser usadas em aplicações importantes.
O professor Boiten apontou que a maioria dos sistemas de IA atuais dependem de grandes redes neurais, especialmente IA generativa e grandes modelos de idiomas (como ChatGPT). O princípio de trabalho desses sistemas é relativamente complexo.
Do ponto de vista da engenharia de software, o professor Boiten enfatizou que os sistemas de IA carecem de composibilidade e não podem ser desenvolvidos modularmente como o software tradicional. Sem uma estrutura interna clara, os desenvolvedores não podem efetivamente segmentar e gerenciar a complexidade, e também é difícil para eles realizar o desenvolvimento passo a passo ou testes eficazes. Isso torna a verificação dos sistemas de IA limitados aos testes gerais, o que é extremamente difícil devido a entradas excessivas e espaço de estado.
Além disso, o comportamento errado dos sistemas de IA geralmente é difícil de prever e corrigir. Isso significa que, mesmo que os erros sejam encontrados durante o treinamento, a reciclagem não garante que esses erros sejam efetivamente corrigidos e podem até introduzir novos problemas. Portanto, o professor Boiten acredita que, em qualquer aplicação que exija um senso de responsabilidade, os sistemas atuais de IA devem ser evitados.
No entanto, o professor Boiten não perdeu completamente a esperança. Ele acredita que, embora os atuais sistemas generativos de IA possam ter atingido um gargalo, combinando inteligência simbólica e IA baseada em intuitivas, ainda é possível desenvolver sistemas de IA mais confiáveis no futuro. Esses novos sistemas podem gerar alguns modelos de conhecimento claros ou níveis de confiança que aumentam a confiabilidade da IA em aplicações práticas.
As opiniões do professor Boiten desencadearam o pensamento profundo das pessoas sobre o escopo de confiabilidade e aplicação da inteligência artificial e também apontaram um novo caminho para a futura direção de desenvolvimento da tecnologia de inteligência artificial. Ao buscar os avanços na tecnologia de inteligência artificial, precisamos atribuir grande importância à sua segurança e confiabilidade para garantir que ela possa ser efetivamente controlada e gerenciada em aplicações e evitar riscos potenciais.