Recentemente, o Google fez grandes ajustes em seus princípios de IA e cancelou seu compromisso anterior em não desenvolver IA para armas ou vigilância, o que causou controvérsia generalizada. Esse movimento decorre da página de princípio da IA pública atualizada do Google, que exclui a parte "Application que não perseguiremos", fazendo com que a mídia e o público questionem sua direção de aplicativo de IA. Depois que a medida assinou um contrato de serviço em nuvem com as forças armadas dos EUA e Israel, esse movimento exacerbou as preocupações das pessoas sobre o papel das empresas de tecnologia no campo de militares e monitoramento.
Recentemente, o Google removeu silenciosamente uma promessa de seu site oficial de não desenvolver inteligência artificial (IA) para armas ou vigilância. A mudança foi relatada pela Bloomberg, e esse movimento despertou atenção e discussão generalizadas do mundo exterior. O Google atualizou recentemente sua página pública de princípio da IA e peças excluídas chamadas "nós não perseguiremos", e essa parte ainda é visível na semana passada.
Diante das consultas da mídia, o Google forneceu uma postagem de blog recém -lançada sobre "AI responsável" à "Tech Crunch". Neste artigo, o Google disse: "Acreditamos que empresas, governos e organizações devem trabalhar juntos para criar IA que possam proteger os seres humanos, promover o desenvolvimento global e apoiar a segurança nacional".
O princípio atualizado da IA atualizado do Google enfatizou que a empresa estará comprometida em "reduzir acidentes ou resultados prejudiciais, evitar preconceitos injustos" e garantir que o desenvolvimento da empresa seja consistente com os "princípios de aceitação geral do direito internacional e dos direitos humanos". Isso sugere que a posição do Google nos aplicativos de IA pode estar mudando.
Nos últimos anos, os contratos de serviço em nuvem do Google assinados com os EUA e os militares israelenses desencadearam protestos de funcionários internos. Embora o Google tenha enfatizado repetidamente que sua tecnologia de IA não usa para prejudicar os seres humanos, o chefe da IA do Departamento de Defesa dos EUA disse recentemente em uma entrevista à "Technology Crunch" que os modelos de IA de algumas empresas realmente aceleraram a decisão de combate -a tomada de decisão processo das forças armadas dos EUA. Esta observação está cheia de dúvidas sobre a aplicação futura do Google IA.
Essa mudança no Google desencadeou os pensamentos sobre o papel das empresas de tecnologia no campo do militar e do monitoramento. No contexto da crescente atenção das questões éticas da tecnologia de inteligência artificial, essa nova medida do Google parece particularmente perceptível. O público e os funcionários estão prestando muita atenção em como a empresa mantém sua imagem responsável nesse campo sensível e como equilibrar a relação entre interesses comerciais e responsabilidade moral.
Com o progresso contínuo e a aplicação da tecnologia de IA, as mudanças de posição do Google podem ter um impacto profundo em todo o setor, e também reexaminará a futura ética científica e tecnológica e senso de responsabilidade.
A mudança do Google despertou discussões generalizadas sobre a responsabilidade social das empresas de tecnologia e da ética da IA. A formulação e a supervisão das normas éticas do desenvolvimento e aplicação da tecnologia de IA também são mais urgentes.