Vergleich von KI-Modellen für GitHub Copilot
GitHub Copilot unterstützt mehrere KI-Modelle mit unterschiedlichen Funktionen. Das ausgewählte Modell wirkt sich auf die Qualität und Relevanz der Antworten von Copilot Chat und die Copilot-Codevervollständigung aus. Einige Modelle bieten eine geringere Latenz, andere weniger Halluzinationen oder eine bessere Leistung bei bestimmten Aufgaben. In diesem Leitfaden kannst du das beste Modell basierend auf deiner Aufgabe und nicht nur basierend auf Modellnamen auswählen.
Hinweis
- Die verschiedenen Modelle weisen unterschiedliche Multiplikatoren für Premiumanfragen auf, was sich auf den Verbrauch deines monatlichen Nutzungskontingents auswirken kann. Ausführliche Informationen findest du unter Anforderungen in GitHub Copilot.
- When you use Copilot Chat in VS Code, it automatically selects the best model for you based on availability. You can manually choose a different model to override this selection. See Informationen zur automatischen Copilot-Modellauswahl and Ändern des KI-Modells für GitHub Copilot Chat.
Empfohlene Modelle nach Aufgabe
Complimentary access to Grok Code Fast 1 is continuing past the previously announced end time. A new end date has not been set. We may update or conclude this promotion at any time. Regular pricing applies after the extension ends.
Verwende diese Tabelle, um schnell ein geeignetes Modell zu finden. Weitere Details findest du in den folgenden Abschnitten.
Modell | Aufgabenbereich | Hervorragende Leistung (primärer Anwendungsfall) | Zusätzliche Funktionen | Weitere Informationen |
---|---|---|---|---|
GPT-4.1 | Allgemeines Programmieren und Schreiben | Schnelle, genaue Codevervollständigungen und Erklärungen | Agent-Modus, Vision | GPT-4.1-Modellkarte |
GPT-5 mini | Tiefgehende Begründungen und Debuggen | Klar definierte Aufgaben und präzise Prompts | Logisches Denken, Vision | Nicht verfügbar |
GPT-5 | Tiefgehende Begründungen und Debuggen | Mehrstufige Problemlösung und Codeanalyse auf Architekturebene | Begründung | GPT-5-Modellkarte |
o3 | Tiefgehende Begründungen und Debuggen | Mehrstufige Problemlösung und Codeanalyse auf Architekturebene | Begründung | o3-Modellkarte |
o4-mini | Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben | Schnelle, zuverlässige Antworten auf einfache Programmierfragen | Geringere Latenz | o4-mini-Modellkarte |
Claude Opus 4.1 | Tiefgehende Begründungen und Debuggen | Komplexe Problemlösungsaufgaben, anspruchsvolles Denken | Logisches Denken, Vision | Claude Opus 4.1-Modellkarte |
Claude Opus 4 | Tiefgehende Begründungen und Debuggen | Komplexe Problemlösungsaufgaben, anspruchsvolles Denken | Logisches Denken, Vision | Claude Opus 4-Modellkarte |
Claude Sonnet 3.5 | Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben | Schnelle Antworten für Code, Syntax und Dokumentation | Agent-Modus, Vision | Claude Sonnet 3.5-Modellkarte |
Claude Sonnet 3.7 | Tiefgehende Begründungen und Debuggen | Strukturierte Begründungen in großen, komplexen Codebasen | Agent-Modus, Vision | Claude Sonnet 3.7-Modellkarte |
Claude Sonnet 4 | Tiefgehende Begründungen und Debuggen | Leistung und Praktikabilität, perfekt ausgeglichen für Programmierungsworkflows | Agent-Modus, Vision | Claude Sonnet 4-Modellkarte |
Gemini 2.5 Pro | Tiefgehende Begründungen und Debuggen | Komplexe Codegenerierung, Debugging und Rechercheworkflows | Logisches Denken, Vision | Gemini 2.5 Pro-Modellkarte |
Gemini 2.0 Flash | Arbeiten mit Visuals (Diagramme, Screenshots) | Echtzeitantworten und visuelle Begründungen für benutzeroberflächen- und diagrammbasierte Aufgaben | Vision | Gemini 2.0 Flash-Modellkarte |
Grok Code Fast 1 | Allgemeines Programmieren und Schreiben | Schnelle, genaue Codevervollständigungen und Erklärungen | Agentmodus | Grok Code Fast 1-Modellkarte |
Aufgabe: Allgemeines Programmieren und Schreiben
Verwende diese Modelle für allgemeine Entwicklungsaufgaben, die ein Gleichgewicht zwischen Qualität, Geschwindigkeit und Kosteneffizienz erfordern. Diese Modelle sind ein guter Standard, wenn du keine spezifischen Anforderungen hast.
Modell | Gründe für die Verwendung |
---|---|
GPT-4.1 | Zuverlässiger Standard für die meisten Programmier- und Schreibaufgaben. Schnell, präzise und funktioniert in allen Sprachen und Frameworks gut. |
Claude Sonnet 3.7 | Erzeugt eine klare, strukturierte Ausgabe. Befolgt Formatierungsanweisungen und behält einen konsistenten Stil bei. |
Gemini 2.0 Flash | Schnell und kostengünstig. Gut geeignet für schnelle Fragen, kurze Codeschnipsel und einfache Schreibaufgaben. |
o4-mini | Optimiert für Geschwindigkeit und Kosteneffizienz. Ideal für Echtzeitempfehlungen mit geringem Nutzungsaufwand. |
Grok Code Fast 1 | Spezialisiert für Programmieraufgaben. Bietet gute Leistung bei der Codegenerierung und beim Debuggen in mehreren Sprachen. |
Verwenden dieser Modelle
Verwende eines dieser Modelle für folgende Aufgaben:
- Schreiben oder Überprüfen von Funktionen, kurzen Dateien oder Code-diffs
- Generieren von Dokumentation, Kommentaren oder Zusammenfassungen
- Schnelles Erläutern von Fehlern oder unerwartetem Verhalten
- Arbeiten in einer nicht englischen Programmierumgebung
Verwenden eines anderen Modells
Wenn du an komplexer Umgestaltung, Architekturentscheidungen oder mehrstufiger Logik arbeitest, erwäge ein Modell unter Tiefgehende Begründungen und Debuggen. Schnellere, einfachere Aufgaben wie sich wiederholende Bearbeitungen oder einmalige Codeempfehlungen findest du unter Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben.
Aufgabe: Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben
Diese Modelle sind für Geschwindigkeit und Reaktionsfähigkeit optimiert. Sie sind hervorragend für schnelle Bearbeitungen, Hilfsfunktionen, Syntaxunterstützung und einfache Prototyperstellung geeignet. Du erhältst schnelle Antworten, ohne auf unnötige tiefe Begründungen oder lange Begründungsketten zu warten.
Empfohlene Modelle
Modell | Gründe für die Verwendung |
---|---|
o4-mini | Ein schnelles und kostengünstiges Modell für sich wiederholende oder einfache Programmieraufgaben. Bietet klare, präzise Empfehlungen. |
Claude Sonnet 3.5 | Vereint schnelle Antworten mit einer qualitätsbezogenen Ausgabe. Ideal für kleine Aufgaben und einfache Codeerläuterungen. |
Gemini 2.0 Flash | Extrem niedrige Latenz und multimodale Unterstützung (sofern verfügbar). Ideal für schnelles, interaktives Feedback. |
Verwenden dieser Modelle
Verwende eines dieser Modelle für folgende Aufgaben:
- Schreiben oder Bearbeiten kleiner Funktionen oder Hilfsprogrammcode
- Stellen schneller Fragen zu Syntax oder Sprachen
- Prototypideen mit minimalem Setup
- Erhalten von schnellem Feedback zu einfachen Prompts oder Bearbeitungen
Verwenden eines anderen Modells
Wenn du an komplexer Umgestaltung, Architekturentscheidungen oder mehrstufiger Logik arbeitest, findest du weitere Informationen unter Tiefgehende Begründungen und Debuggen. Aufgaben, die eine stärkere allgemeine Begründung oder eine strukturiertere Ausgabe benötigen, findest du unter Allgemeines Programmieren und Schreiben.
Aufgabe: Tiefgehende Begründungen und Debuggen
Diese Modelle sind für Aufgaben konzipiert, die eine schrittweise Begründung, eine komplexe Entscheidungsfindung oder ein hohes Kontextbewusstsein erfordern. Sie funktionieren gut, wenn du strukturierte Analysen, eine Generierung durchdachten Codes oder ein dateiübergreifendes Verständnis benötigst.
Empfohlene Modelle
Modell | Gründe für die Verwendung |
---|---|
GPT-5 mini | Bietet umfassende Begründungen und Debuggen mit schnelleren Antworten und geringerer Ressourcennutzung als GPT-5. Ideal für interaktive Sitzungen und schrittweise Codeanalyse. |
GPT-5 | Hervorragend geeignet für komplexe Begründungen, Codeanalyse und technische Entscheidungsfindung. |
o3 | Überzeugend bei Algorithmusdesign, Systemdebugging und Architekturentscheidungen. Vereint Leistung und Begründung. |
Claude Sonnet 3.7 | Bietet hybride Begründungen, die sich an schnelle Aufgaben und tiefgreifenderes Denken anpassen. |
Claude Sonnet 4 | Verbessert im Vergleich zu 3.7 durch zuverlässigere Vervollständigungen und intelligentere Begründung unter Druck. |
Claude Opus 4.1 | Das leistungsstärkste Modell von Anthropic. Verbessert Claude Opus 4. |
Claude Opus 4 | Überzeugend bei Strategie, Debugging und mehrschichtiger Logik. |
Gemini 2.5 Pro | Erweiterte Begründungen für breitgefächerte Kontexte und wissenschaftliche oder technische Analysen. |
Verwenden dieser Modelle
Verwende eines dieser Modelle für folgende Aufgaben:
- Debuggen komplexer Probleme mit dateiübergreifendem Kontext
- Umgestalten großer oder miteinander verbundener Codebasen
- Planen schichtübergreifender Features oder Architekturen
- Abwägen der Kompromisse zwischen Bibliotheken, Mustern oder Workflows
- Analysieren von Protokollen, Leistungsdaten oder Systemverhalten
Verwenden eines anderen Modells
Eine schnelle Iteration oder einfache Aufgaben findest du unter Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben. Allgemeine Entwicklungsworkflows oder Inhaltsgenerierung findest du unter Allgemeines Programmieren und Schreiben.
Aufgabe: Arbeiten mit Visuals (Diagramme, Screenshots)
Verwende diese Modelle, wenn du Fragen zu Screenshots, Diagrammen, Benutzeroberflächenkomponenten oder weiteren visuellen Eingaben stellen möchtest. Diese Modelle unterstützen die multimodale Eingabe und sind gut für die Front-End-Arbeit oder das visuelles Debuggen geeignet.
Modell | Gründe für die Verwendung |
---|---|
GPT-4.1 | Zuverlässiger Standard für die meisten Programmier- und Schreibaufgaben. Schnell, präzise und unterstützt die multimodale Eingabe für visuelle Schlussfolgerungsaufgaben. Funktioniert sprachen- und frameworkübergreifend gut. |
Claude Opus 4 | Das leistungsstärkste Modell von Anthropic. Überzeugend bei Strategie, Debugging und mehrschichtiger Logik. |
Claude Sonnet 4 | Verbessert im Vergleich zu 3.7 durch zuverlässigere Vervollständigungen und intelligentere Begründung unter Druck. |
Gemini 2.0 Flash | Schnelles, multimodales Modell, das für die Echtzeitinteraktion optimiert ist. Hilfreich für Feedback zu Diagrammen, visuellen Prototypen und Benutzeroberflächenlayouts. |
Gemini 2.5 Pro | Umfassende Schlussfolgerungen und umfassendes Debuggen, ideal für komplexe Codegenerierungs-, Debug- und Rechercheworkflows. |
Verwenden dieser Modelle
Verwende eines dieser Modelle für folgende Aufgaben:
- Stellen von Fragen zu Diagrammen, Screenshots oder Benutzeroberflächenkomponenten
- Erhalten von Feedback zu visuellen Entwürfen oder Workflows
- Veranschaulichen des Front-End-Verhaltens im visuellen Kontext
Tipp
Wenn du ein Modell in einem Kontext verwenden, der die Bildeingabe (z. B. einen Code-Editor) nicht unterstützt, entstehen keine Vorteile durch visuelle Begründungen. Möglicherweise kannst du einen MCP-Server verwenden, um indirekten Zugriff auf visuelle Eingaben zu erhalten. Weitere Informationen findest du unter Erweitern von GitHub Copilot Chat mit dem Model Context Protocol (MCP).
Verwenden eines anderen Modells
Wenn deine Aufgabe tiefgreifende Begründungen oder eine umfangreiche Umgestaltung erfordert, erwäge ein Modell unter Tiefgreifende Begründungen und Debuggen. Nur-Text-Aufgaben oder eine einfachere Codebearbeitungen findest du unter Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben.
Nächste Schritte
Durch die Wahl des richtigen Modells kannst du das Potenzial von Copilot voll ausschöpfen. Wenn du nicht sicher bist, welches Modell verwendet werden soll, beginne mit einer allgemeinen Option wie GPT-4.1, und passe diese anschließend an deine Anforderungen an.
- Detaillierte Modellspezifikationen und Preise findest du unter Unterstützte KI-Modelle in GitHub Copilot.
- Weitere Beispiele für die Verwendung verschiedener Modelle findest du unter Vergleichen von KI-Modellen bei Verwendung unterschiedlicher Aufgaben.
- Informationen zum Wechseln zwischen Modellen findest du unter AUTOTITLE- oder Ändern des KI-Modells für die GitHub Copilot-Codevervollständigung.
- Informationen dazu, wie Copilot Chat verschiedene KI-Modelle bedient, findest du unter Hosten von Modellen für GitHub Copilot Chat.