GitHub Copilot pode usar vários modelos de IA. Este artigo explica como esses modelos são hospedados e servidos.
Modelos de OpenAI
Usado para:
- GPT-4.1
- o3
- o4-mini
O GPT-4.1 é hospedado pelo locatário do Azure do GitHub quando usado no GitHub Copilot. Os modelos do o3 e do o4-mini são hospedados pela OpenAI e pelo locatário do Azure do GitHub. A OpenAI faz o seguinte compromisso de dados: Nós [OpenAI] não treinamos nossos modelos usando seus dados de negócios por padrão. O GitHub mantém um acordo de zero retenção de dados com a OpenAI.
Ao usar os modelos da OpenAI, as solicitações de entrada e as respostas de saída continuam sendo executadas por meio dos filtros de conteúdo do GitHub Copilot para correspondência com um código público, quando aplicados, juntamente com aqueles para detecção de conteúdo prejudicial ou ofensivo.
Modelos antrópicos
Usado para:
- Claude Opus 4
- Claude Sonnet 3.5
- Claude Sonnet 3.7
- Claude Sonnet 3.7 Thinking
- Claude Sonnet 4
O Claude Opus 4 e o Claude Sonnet 4 são hospedados pela Anthropic PBC e pela Google Cloud Platform. O Claude Sonnet 3.7 é hospedado pela Amazon Web Services, pela Anthropic PBC e pela Google Cloud Platform. O Claude Sonnet 3.5 é hospedado exclusivamente pelo Amazon Web Services. O GitHub tem contratos de provedor em vigor para garantir que os dados não sejam usados para treinamento. Detalhes adicionais de cada provedor estão incluídos abaixo:
- Amazon Bedrock: a Amazon faz os seguintes compromissos de dados: a Amazon Bedrock não armazena nem registra seus prompts e conclusões. O Amazon Bedrock não usa suas solicitações e seus preenchimentos para treinar modelos da AWS e não os distribui para terceiros.
- Anthropic PBC: o GitHub mantém um contrato de retenção de dados zero com a Anthropic.
- Google Cloud: o Google se compromete a não treinar dados do GitHub como parte de seus termos de serviço. Além disso, o GitHub não está sujeito ao registro de prompts em log para monitoramento de abuso.
Para fornecer melhor qualidade de serviço e reduzir a latência, o GitHub usa o armazenamento de prompts em cache. Leia mais sobre o armazenamento de prompts em cache em Anthropic PBC, Amazon Bedrock e Google Cloud.
Ao usar o Claude, as solicitações de entrada e os preenchimentos de saída continuam sendo executados por meio dos filtros de conteúdo do GitHub Copilot para correspondência com um código público, quando aplicados, juntamente com aqueles para detecção de conteúdo prejudicial ou ofensivo.
Modelos do Google
Usado para:
- Gemini 2.5 Pro
- Gemini 2.0 Flash
O GitHub Copilot usa o Gemini 2.0 Flash e o Gemini 2.5 Pro hospedado na Google Cloud Platform (GCP). Ao usar modelos do Gemini, prompts e metadados são enviados à GCP, que assume o seguinte compromisso de dados: o Gemini não usa seus prompts nem suas respostas como dados para treinar seus modelos.
Para fornecer melhor qualidade de serviço e reduzir a latência, o GitHub usa o armazenamento de prompts em cache.
Ao usar modelos do Gemini, os prompts de entrada e os preenchimentos de saída continuam sendo executados por meio dos filtros de conteúdo do GitHub Copilot para correspondência com um código público, quando aplicados, juntamente com aqueles para detecção de conteúdo prejudicial ou ofensivo.