Reddit은 최근 검색 엔진과 AI 봇이 콘텐츠에 액세스하는 것을 제한하겠다고 발표했는데, 이는 광범위한 관심을 끌었습니다. 이 전략의 핵심은 플랫폼 데이터의 통제와 수익화에 있습니다. Reddit은 유료 모델을 통해 콘텐츠에 대한 새로운 수익원을 창출하고 더 많은 투자자를 유치하려고 노력하고 있습니다. 이러한 움직임은 Reddit 데이터에 의존하는 검색 엔진 및 AI 모델 개발자에게 영향을 미칠 것이며 일반 사용자가 정보를 얻는 방식에도 일정한 영향을 미칠 것입니다.
최근 Reddit은 극적인 움직임으로 주요 검색 엔진과 AI 봇의 콘텐츠 액세스를 제한하기 시작했습니다. 404Media에 따르면 Reddit은 일부 주요 검색 엔진이 비용을 지불하지 않는 한 더 이상 최근 게시물과 댓글에 쉽게 액세스하는 것을 허용하지 않기로 결정했습니다. 즉, Google을 통해 검색하지 않으면 최신 Reddit 콘텐츠를 찾지 못할 수도 있습니다.
이제 Google은 "site:reddit.com"을 검색할 때 최신 결과를 표시하는 유일한 주요 검색 엔진입니다. Bing, DuckDuckGo 등 기타 검색 엔진은 제외됩니다. 그 이유는 주로 Google이 Reddit과 6천만 달러 규모의 계약을 체결하여 Google이 Reddit 데이터를 사용하여 AI 모델을 훈련할 수 있도록 허용했기 때문입니다. 이로 인해 Bing과 같은 검색 엔진에서는 콘텐츠에 액세스할 수 없게 되는 것을 지켜볼 수 있습니다.
Reddit 대변인 Tim Rathschmidt는 이번 결정이 Google 파트너십과 직접적인 관련이 없다고 말했습니다. 실제로 Reddit은 거래를 성사시키기 위해 여러 검색 엔진과 대화를 나눠왔습니다. 그러나 Reddit 콘텐츠 사용에 대한 많은 검색 엔진의 약속이 충분히 명확하지 않아 양측이 합의에 도달하지 못했습니다.
Reddit의 경우 이 단계를 수행하는 것은 그다지 놀라운 일이 아닙니다. 지난 1년 동안 Reddit은 이러한 조치를 통해 새로운 수익원을 창출하고 새로운 투자자를 유치하기 위해 데이터에 점점 더 집중해 왔습니다. Reddit은 이전에 API 사용 수수료를 인상하고 Google이 Reddit 데이터를 무료로 AI 훈련에 계속 사용한다면 Reddit은 협력 중단을 고려할 것이라고 위협했습니다.
또한 이 정책을 시행하기 위해 Reddit은 웹사이트의 robots.txt 파일을 업데이트했습니다. 이 파일은 웹 크롤러가 웹 사이트에 액세스할 수 있는지 여부를 결정하는 중요한 기반입니다. Reddit의 최고 법률 책임자인 Ben Lee는 이번 업데이트가 Reddit과 합의하지 않은 크롤러에게 Reddit의 데이터에 접근할 수 없다는 명확한 신호를 보낸다고 말했습니다.
요즘은 AI 챗봇이 온라인에서 확산되면서 인간이 만든 콘텐츠를 찾고 싶어하는 사람들이 많다. 결국 로봇이 만든 콘텐츠보다 인간이 만든 의견이 더 진실하다. 많은 사람들처럼 나도 인간의 답을 찾기 위해 "Reddit"을 뒤지기 시작했지만 지금은 훨씬 더 어려워졌습니다. Bing을 사용해 왔던 나로서는 이 부분이 정말 답답하다.
하이라이트:
? **페이월 활성화**: Reddit은 검색 엔진과 AI 봇이 콘텐츠에 액세스하는 것을 제한하고 콘텐츠를 얻으려면 비용을 지불해야 합니다.
**Google 독점 리소스** Google만이 "site:reddit.com"을 통해 최신 결과를 얻을 수 있으며, 기타 검색 엔진은 제외됩니다.
? **데이터 수익화 전략**: Reddit은 데이터 보호를 강화하고 API 수수료를 인상하며 투자자를 유치하기 위한 새로운 수익원을 찾습니다.
Reddit의 움직임은 데이터 수익화에 대한 강조를 반영할 뿐만 아니라 인터넷 플랫폼이 데이터를 얻는 방식의 변화를 예고합니다. 미래에는 더 많은 플랫폼이 유사한 전략을 채택할 수 있으며 이는 검색 엔진과 AI 산업에 큰 영향을 미칠 것입니다. 우리는 정보를 얻는 새로운 방법에 적응하고 이 지불 모델이 인터넷 생태계에 미치는 잠재적 영향에 대해 생각해야 할 수도 있습니다.