기술과 군사의 교차로에서 STS3D라는 엔지니어는 최근 인공 지능과 무기의 조합에 대한 치열한 토론을 시작했습니다. 그가 개발 한 로봇 소총은 Chatgpt의 지침을 통해 정확하게 목표로하고 촬영할 수있을뿐만 아니라 반응 속도와 정확도가 훨씬 더 충격적입니다. 이 혁신은 의심 할 여지없이 공상 과학 영화의 장면을 현실로 가져 오지만 기술 남용에 대한 깊은 대중의 우려를 제기합니다.
이미지 소스 참고 : 이미지는 AI에 의해 생성되며 이미지 공인 서비스 제공 업체 Midjourney
STS3D는 소셜 미디어에서 널리 퍼져있는 비디오 에서이 로봇 소총의 힘을 보여줍니다. 비디오에서 엔지니어는 시스템에 대한 지침을 발표했습니다. 근처 벽. 이 데모는 기술의 성숙도를 보여줄뿐만 아니라 사람들 이이 기술의 잠재적 위험에 대해 궁금해합니다.
OpenAi는 이에 신속하게 응답하여 STS3D의 행동이 회사의 사용 정책을 위반하고 관련 활동을 즉시 중지하도록 요청했습니다. OpenAI의 대변인은 회사가 사용자가 서비스를 사용하여 무기를 개발하거나 사용하고 개인 안전을 위협 할 수있는 시스템을 자동화하는 것을 엄격히 금지한다고 강조했습니다. Openai는 작년에 기술을 군사적 목적으로 사용할 수 있도록 조용히 정책을 수정했지만 어떤 형태의 "자신이나 타인도 해를 입히십시오"라는 형태는 여전히 엄격하게 금지되어 있습니다.
STS3D는 아직이 문제에 대한 대중의 대응을하지 않았지만 그의 행동으로 판단하면 OpenAI의 정책과는 반대입니다. STS3D는 군사 또는 국방 계약자의 일원이 아니지만 군사 분야 에서이 기술에 관심이 없다는 것을 의미하지는 않습니다. 실제로 작년에 미국 국방 계약자는 이미 독립적으로 화재 할 수있는 AI 로봇 기관총을 보여 주었고, OpenAI 기술과 결합 할 가능성은 미래에 배제되지 않습니다.
이 사건은 기술과 무기의 조합에 대한 대중의 우려를 불러 일으킬뿐만 아니라 사람들이 미래의 기술 개발 방향을 재검토하도록 유도했습니다. 인공 지능 기술의 지속적인 발전으로 혁신과 윤리 사이의 균형을 찾는 방법이 긴급한 문제가되었습니다.
핵심 사항 :
Openai는 사용 정책 위반으로 인해 로봇 소총을 개발하는 엔지니어와의 관계를 빠르게 차단합니다.
STS3D의 로봇 소총은 Chatgpt의 지시에 따라 목표와 촬영을 통해 높은 정확도를 보여줍니다.
작년 OpenAi의 정책 개정에도 불구하고 여전히 모든 종류의 무기를 개발하기 위해 서비스 사용을 금지합니다.