Este projeto foi arquivado. Devido a circunstâncias pessoais, não tenho tempo para manter este repositório.
A engenharia reversa do recurso de chat da nova versão do Bing
Inglês - 简体中文 - 繁體中文 - Español - 日本語
python3 -m pip install EdgeGPT --upgrade
!!! POSSIVELMENTE NÃO É NECESSÁRIO MAIS !!!
Em algumas regiões , a Microsoft disponibilizou o recurso de bate-papo para todos, portanto, você pode pular esta etapa . Você pode verificar isso com um navegador (com o agente do usuário configurado para refletir o Edge), tentando iniciar um bate-papo sem fazer login .
Também foi descoberto que isso pode depender do seu endereço IP . Por exemplo, se você tentar acessar os recursos de chat a partir de um IP que pertence a um intervalo de datacenter (vServers, servidores raiz, VPN, proxies comuns, ...), poderá ser necessário fazer login enquanto pode acesse os recursos perfeitamente a partir do seu endereço IP residencial.
Se receber o seguinte erro, você pode tentar fornecer um cookie e ver se funciona:
Exception: Authentication failed. You have not been accepted into the beta.
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36 Edg/111.0.1661.51
). Você pode fazer isso facilmente com uma extensão como "User-Agent Switcher and Manager" para Chrome e Firefox.bing_cookies_*.json
.bing_cookies_*.json
, para que possam ser reconhecidos pelos mecanismos internos de processamento de cookies cookies = json . loads ( open ( "./path/to/cookies.json" , encoding = "utf-8" ). read ()) # might omit cookies option
bot = await Chatbot . create ( cookies = cookies )
$ python3 -m EdgeGPT.EdgeGPT -h
EdgeGPT - A demo of reverse engineering the Bing GPT chatbot
Repo: github.com/acheong08/EdgeGPT
By: Antonio Cheong
!help for help
Type !exit to exit
usage: EdgeGPT.py [-h] [--enter-once] [--search-result] [--no-stream] [--rich] [--proxy PROXY] [--wss-link WSS_LINK]
[--style {creative,balanced,precise}] [--prompt PROMPT] [--cookie-file COOKIE_FILE]
[--history-file HISTORY_FILE] [--locale LOCALE]
options:
-h, --help show this help message and exit
--enter-once
--search-result
--no-stream
--rich
--proxy PROXY Proxy URL (e.g. socks5://127.0.0.1:1080)
--wss-link WSS_LINK WSS URL(e.g. wss://sydney.bing.com/sydney/ChatHub)
--style {creative,balanced,precise}
--prompt PROMPT prompt to start with
--cookie-file COOKIE_FILE
path to cookie file
--history-file HISTORY_FILE
path to history file
--locale LOCALE your locale (e.g. en-US, zh-CN, en-IE, en-GB)
(China/EUA/Reino Unido/Noruega aprimoraram o suporte para localidade)
Chatbot
e asyncio
para um controle mais granularUse Async para obter a melhor experiência, por exemplo:
import asyncio , json
from EdgeGPT . EdgeGPT import Chatbot , ConversationStyle
async def main ():
bot = await Chatbot . create () # Passing cookies is "optional", as explained above
response = await bot . ask ( prompt = "Hello world" , conversation_style = ConversationStyle . creative , simplify_response = True )
print ( json . dumps ( response , indent = 2 )) # Returns
"""
{
"text": str,
"author": str,
"sources": list[dict],
"sources_text": str,
"suggestions": list[str],
"messages_left": int
}
"""
await bot . close ()
if __name__ == "__main__" :
asyncio . run ( main ())
Query
e Cookie
Crie uma consulta simples do Bing Chat AI (usando o estilo de conversa 'preciso' por padrão) e veja apenas a saída de texto principal em vez de toda a resposta da API:
Lembre-se de armazenar seus cookies em um formato específico: bing_cookies_*.json
.
from EdgeGPT . EdgeUtils import Query , Cookie
q = Query ( "What are you? Give your answer as Python code" )
print ( q )
O diretório padrão para armazenar arquivos Cookie é HOME/bing_cookies
mas você pode alterá-lo com:
Cookie . dir_path = Path ( r"..." )
Ou altere o estilo de conversa ou o arquivo cookie a ser usado:
q = Query (
"What are you? Give your answer as Python code" ,
style = "creative" , # or: 'balanced', 'precise'
cookie_file = "./bing_cookies_alternative.json"
)
# Use `help(Query)` to see other supported parameters.
Extraia rapidamente a saída de texto, trechos de código, lista de fontes/referências ou perguntas sugeridas de acompanhamento de uma resposta usando os seguintes atributos:
q . output # Also: print(q)
q . sources
q . sources_dict
q . suggestions
q . code
q . code_blocks
q . code_block_formatsgiven )
Obtenha o prompt original e o estilo de conversa que você especificou:
q . prompt
q . ignore_cookies
q . style
q . simplify_response
q . locale
repr ( q )
Acesse Consultas anteriores feitas desde a importação Query
:
Query . index # A list of Query objects; updated dynamically
Query . image_dir_path
E, finalmente, a classe Cookie
oferece suporte a vários arquivos de cookie, portanto, se você criar arquivos de cookie adicionais com a convenção de nomenclatura bing_cookies_*.json
, suas consultas tentarão automaticamente usar o próximo arquivo (em ordem alfabética) se você tiver excedido sua cota diária de solicitações ( atualmente definido em 200).
Aqui estão os principais atributos que você pode acessar:
Cookie . current_file_index
Cookie . current_file_path
Cookie . current_data
Cookie . dir_path
Cookie . search_pattern
Cookie . files
Cookie . image_token
Cookie . import_next
Cookie . rotate_cookies
Cookie . ignore_files
Cookie . supplied_files
Cookie . request_count
Isso pressupõe que você tenha um arquivo cookies.json em seu diretório de trabalho atual
docker run --rm -it -v $( pwd ) /cookies.json:/cookies.json:ro -e COOKIE_FILE= ' /cookies.json ' ghcr.io/acheong08/edgegpt
Você pode adicionar sinalizadores extras da seguinte maneira
docker run --rm -it -v $( pwd ) /cookies.json:/cookies.json:ro -e COOKIE_FILE= ' /cookies.json ' ghcr.io/acheong08/edgegpt --rich --style creative
$ python3 -m ImageGen.ImageGen -h
usage: ImageGen.py [-h] [-U U] [--cookie-file COOKIE_FILE] --prompt PROMPT [--output-dir OUTPUT_DIR] [--quiet] [--asyncio]
optional arguments:
-h, --help show this help message and exit
-U U Auth cookie from browser
--cookie-file COOKIE_FILE
File containing auth cookie
--prompt PROMPT Prompt to generate images for
--output-dir OUTPUT_DIR
Output directory
--quiet Disable pipeline messages
--asyncio Run ImageGen using asyncio
ImageQuery
Gere imagens com base em um prompt simples e faça download para o diretório de trabalho atual:
from EdgeGPT . EdgeUtils import ImageQuery
q = ImageQuery ( "Meerkats at a garden party in Devon" )
Altere o diretório de download para todas as imagens futuras nesta sessão:
Query.image_dirpath = Path("./to_another_folder")
ImageGen
e asyncio
para controle mais granular from EdgeGPT . ImageGen import ImageGen
import argparse
import json
async def async_image_gen ( args ) -> None :
async with ImageGenAsync ( args . U , args . quiet ) as image_generator :
images = await image_generator . get_images ( args . prompt )
await image_generator . save_images ( images , output_dir = args . output_dir )
if __name__ == "__main__" :
parser = argparse . ArgumentParser ()
parser . add_argument ( "-U" , help = "Auth cookie from browser" , type = str )
parser . add_argument ( "--cookie-file" , help = "File containing auth cookie" , type = str )
parser . add_argument (
"--prompt" ,
help = "Prompt to generate images for" ,
type = str ,
required = True ,
)
parser . add_argument (
"--output-dir" ,
help = "Output directory" ,
type = str ,
default = "./output" ,
)
parser . add_argument (
"--quiet" , help = "Disable pipeline messages" , action = "store_true"
)
parser . add_argument (
"--asyncio" , help = "Run ImageGen using asyncio" , action = "store_true"
)
args = parser . parse_args ()
# Load auth cookie
with open ( args . cookie_file , encoding = "utf-8" ) as file :
cookie_json = json . load ( file )
for cookie in cookie_json :
if cookie . get ( "name" ) == "_U" :
args . U = cookie . get ( "value" )
break
if args . U is None :
raise Exception ( "Could not find auth cookie" )
if not args . asyncio :
# Create image generator
image_generator = ImageGen ( args . U , args . quiet )
image_generator . save_images (
image_generator . get_images ( args . prompt ),
output_dir = args . output_dir ,
)
else :
asyncio . run ( async_image_gen ( args ))
Este projeto existe graças a todas as pessoas que contribuem.