Go/No-Go bei IT-Ausschreibungen: Die 12-Punkte-Matrix (2026)

Letzte Aktualisierung: April 2026 | Lesezeit: ca. 11 Min.
Öffentliche IT-Ausschreibungen kosten in der Angebotsphase schnell fünf- bis sechsstellige Beträge an Personalkosten — und die Gewinnrate liegt bei etablierten IT-Dienstleistern typischerweise zwischen 10 und 25 Prozent. Wer jede Ausschreibung bearbeitet, die im Postfach landet, verbrennt Kapazität. Wer zu vorsichtig filtert, verpasst Wachstum. Eine disziplinierte Go/No-Go-Entscheidung in unter 15 Minuten ist deshalb die vielleicht wichtigste Kompetenz im Bid Management — und eine, die sich systematisieren lässt.
Auf einen Blick
- 12-Punkte-Matrix mit Gewichtung, klaren Schwellenwerten und Entscheidungs-Logik
- Unter 15 Minuten pro Ausschreibung statt stundenlanger Debatten
- Drei harte Ausschluss-Checks vor der Matrix — sparen in 30 % der Fälle die komplette Analyse
- Drei Praxisbeispiele (Go, Bedingtes Go, No-Go) mit durchgerechneten Punktwerten
- Review-Rhythmus: Alle zehn Durchläufe Gewichtungen kalibrieren
- Abgrenzung zu Risikoanalyse und Red-Flag-Prüfung am Ende des Artikels
Warum IT-Dienstleister zu viele falsche Ausschreibungen bearbeiten
Wer zum ersten Mal versucht, den Aufwand einer öffentlichen Ausschreibung sauber zu erfassen, wird regelmäßig überrascht. Eine mittelgroße IT-Ausschreibung (Auftragsvolumen 500.000 bis 2 Mio. Euro) verschlingt in der Angebotsphase schnell 15 bis 40 Personentage — verteilt auf Bid Manager, Fachverantwortliche, Geschäftsführung, Delivery Lead und gelegentlich externe Rechtsberatung. Bei einem internen Tagessatz von 800 Euro sprechen wir über 12.000 bis 32.000 Euro Aufwand pro Angebot. Ohne Gewissheit, dass Sie gewinnen.
Die Gewinnrate ist in den seltensten Fällen höher als eins zu vier — realistischer ist eins zu sechs bis eins zu zehn bei Neukunden und eins zu drei bei laufenden Rahmenverträgen mit bestehenden Vergabestellen. Das bedeutet: Für jeden Zuschlag bearbeiten Sie durchschnittlich sechs bis zehn Ausschreibungen ohne Ergebnis. Wer das unreflektiert macht, investiert schnell ein Drittel der jährlichen Vertriebskapazität in Angebote, die nie zu Umsatz führen.
Das eigentliche Problem ist selten die Arbeitslast an sich. Es ist die fehlende Disziplin bei der Vorauswahl. In den meisten IT-Mittelständlern entsteht eine kulturelle Schieflage: Jede hereinkommende Ausschreibung wird als "Chance" gelabelt, jedes Angebot gilt als Fleiß — und die Diskussion, welche Ausschreibungen überhaupt bearbeitet werden sollen, findet gar nicht oder nur im Vorbeigehen statt. Genau dort setzt eine strukturierte Go/No-Go-Entscheidung an.
Wann die Go/No-Go-Entscheidung getroffen wird
Die Go/No-Go-Entscheidung fällt nach dem Erhalt der vollständigen Vergabeunterlagen und vor dem Start der eigentlichen Angebotsausarbeitung. In der Praxis bedeutet das: Sobald ein Bid Manager oder Scout die Unterlagen heruntergeladen und grob gesichtet hat, gehört die Bewertung in einen fixen Prozess.
Wer entscheidet, hängt von der Unternehmensgröße ab. In kleineren IT-Häusern mit bis zu 30 Mitarbeitenden übernimmt oft die Geschäftsführung selbst die Entscheidung. Ab 50 Mitarbeitenden hat sich ein zweistufiges Modell bewährt: Ein Bid Manager trifft die Vorentscheidung anhand der Matrix, bei Grenzfällen wird die Geschäftsführung oder ein Sales Lead hinzugezogen. Delivery sollte bei jedem Go-Case vor der endgültigen Freigabe konsultiert werden — nichts ist frustrierender als ein gewonnener Auftrag, der intern nicht lieferbar ist.
Die Zeitbudget-Frage wird selten offen adressiert, ist aber entscheidend: Eine Go/No-Go-Entscheidung sollte in 15 bis 30 Minuten getroffen werden. Länger dauert es meist, weil die Diskussion nicht strukturiert ist — nicht, weil die Ausschreibung so komplex wäre. Wer systematisch nach Kriterien bewertet, braucht nicht länger, wer emotional diskutiert, landet schnell bei zwei Stunden. Letzteres rechnet sich selten.
Die drei harten Ausschluss-Checks (vor der Matrix)
Bevor Sie die Matrix überhaupt ausfüllen, gibt es drei binäre Prüfungen. Fällt auch nur eine Antwort negativ aus, ist die Matrix obsolet — die Ausschreibung scheidet aus Ausschlussgründen aus.
Check 1: Erfüllen wir die Mindest-Eignungskriterien? Dazu gehören Unternehmensumsatz, Anzahl Mitarbeitender, Referenzen in vergleichbaren Projekten, geforderte Zertifizierungen und formale Nachweise wie Handelsregisterauszug, Versicherungsbestätigungen und Steuerunbedenklichkeitsbescheinigungen. Wenn Sie die Eignungskriterien nicht erfüllen, ist der Auftrag formal ausgeschlossen — unabhängig davon, wie gut Ihr technisches Angebot wäre.
Check 2: Haben wir Kapazität für den Leistungszeitraum? Zu viele Angebote werden ohne Rücksprache mit Delivery geschrieben. Wenn der Leistungszeitraum in sechs Wochen startet und Ihr verfügbares Team bis Ende des Jahres ausgebucht ist, wird ein Zuschlag zum Problem. Eine ehrliche Kapazitätsprüfung vor Angebotserstellung ist Pflicht — und verhindert Schadensersatzforderungen bei Nicht-Leistung.
Check 3: Passt das Vertragsmodell zu unserem Geschäftsmodell? Eine Ausschreibung, die ausschließlich Arbeitnehmerüberlassung vorsieht, passt nicht zu einem Werkvertrags-Geschäftsmodell — und umgekehrt. Die Unterschiede sind rechtlich relevant und haben Konsequenzen für Haftung, Steuer und Sozialversicherung. Wenn Sie keine ANÜ-Erlaubnis haben und die Ausschreibung diese zwingend fordert, kommen Sie nicht zum Zug. Details dazu im Artikel ANÜ vs. Dienst- vs. Werkvertrag im Vergaberecht.
Wichtig: Diese drei Checks sind KO-Kriterien. Wenn auch nur eine Antwort "Nein" lautet, endet die Bewertung hier. Keine Punktvergabe, keine Diskussion über "wir könnten es aber irgendwie hinbekommen".
Die 12-Punkte-Bewertungsmatrix
Jedes Kriterium wird mit 0 bis 5 Punkten bewertet und mit einem Gewicht multipliziert. Die maximale Gesamtpunktzahl liegt bei 100, die Schwellenwerte für die Entscheidung bei 40 und 60 Punkten. Die Gewichtungen basieren auf der Praxiserfahrung in IT-Mittelstandsunternehmen — Sie können und sollten sie nach einigen Durchläufen an Ihre Realität anpassen.

| # | Kriterium | Gewicht | 0 Punkte | 5 Punkte |
|---|---|---|---|---|
| 1 | Eignungskriterien erfüllt | 3 | Wir erfüllen weniger als 80 % | Wir erfüllen alle ohne Lücke |
| 2 | Technisches Match mit Leistungsspektrum | 3 | Fachlich weit von unserem Kern entfernt | Exakter Match zu unseren Top-Leistungen |
| 3 | Geschätzte Erfolgswahrscheinlichkeit | 3 | Unter 10 % | Über 40 % |
| 4 | Verfügbare Kapazität im Abgabezeitraum | 2 | Keine freien Kapazitäten | Team bereit und verplant |
| 5 | Margenpotenzial | 2 | Verlustangebot absehbar | Zielmarge realistisch |
| 6 | Strategischer Fit | 2 | Kein strategischer Mehrwert | Neuer Ankerkunde oder Referenz |
| 7 | Incumbent-Situation | 2 | Starker Incumbent seit Jahren | Keine Vorgänger oder Neukunden-Vergabe |
| 8 | Frist-Realismus | 2 | Abgabefrist zu kurz für Qualität | Komfortable Frist für sauberes Angebot |
| 9 | Vollständigkeit der Vergabeunterlagen | 1 | Wesentliche Anlagen fehlen | Alle Unterlagen klar und vollständig |
| 10 | Anteil verhandelbarer Grauzonen | 1 | Starrer Katalog, keine Spielräume | Viel funktionale Offenheit |
| 11 | Geografische Nähe / Vor-Ort-Aufwand | 1 | Reiseaufwand wirtschaftlich unrealistisch | Standort ohne Mehraufwand bedienbar |
| 12 | Politisches / reputationelles Risiko | 1 | Kontroverse Vergabestelle | Unproblematisch |
Auswertungs-Schema:
| Punkte | Empfehlung | Handlung |
|---|---|---|
| 0–40 | No-Go | Ablehnen, dokumentieren, Lerneffekt ableiten |
| 41–60 | Bedingtes Go | Rückfragen, Risiko-Workshop, ggf. Fristverlängerung |
| 61–100 | Go | Freigabe, Angebotsprozess starten |
Hinweis zur Gewichtung: Die Kriterien 1 bis 3 machen zusammen 45 Prozent der Gesamtbewertung aus — und das ist Absicht. Eignung, technisches Match und realistische Erfolgswahrscheinlichkeit sind die drei Hebel, die über Sinn oder Unsinn eines Angebots entscheiden. Alles andere sind Modulatoren.
Warum welches Kriterium so gewichtet ist
Eignungskriterien (Gewicht 3) — Die formale Eignung ist nach den Ausschluss-Checks zwar grob geprüft, aber häufig gibt es Grauzonen: Referenzen, die nur zu 80 Prozent passen, Zertifizierungen, die kurz vor dem Audit stehen, Umsatzschwellen, die nur konzernweit erreicht werden. Die Matrix bildet ab, wie stark diese Grauzonen ins Gewicht fallen.
Technisches Match (Gewicht 3) — Ausschreibungen, die 80 Prozent zum eigenen Leistungsspektrum passen und 20 Prozent "lernen wir dazu", sind ein guter Case. Ausschreibungen, die 40 Prozent passen und 60 Prozent "neu", sind fast immer ein verdeckter Verlust — sowohl in der Angebotsphase (mehr Rechercheaufwand) als auch in der Lieferung (Lernkurve zulasten der Marge).
Geschätzte Erfolgswahrscheinlichkeit (Gewicht 3) — Das schwierigste Kriterium, weil es auf Schätzungen beruht. Seriöse Schätzungen basieren auf bekannten Wettbewerbern, Incumbent-Status, Passung zum Leistungsverzeichnis und Erfahrungen mit der Vergabestelle. Eine Erfolgswahrscheinlichkeit von 10 Prozent ist realistisch für Neukunden-Ausschreibungen im öffentlichen Sektor, 40 Prozent für passende Rahmenvertrags-Abrufe, über 50 Prozent selten und meist Wunschdenken.
Kapazität (Gewicht 2) — Wichtig, aber nicht kritisch in der Angebotsphase, weil sich Kapazitäten häufig noch verschieben lassen. Entscheidend wird es vor der tatsächlichen Zusage nach Zuschlag.
Margenpotenzial (Gewicht 2) — Öffentliche Aufträge haben oft knappere Margen als die Privatwirtschaft, sind dafür aber planbarer. Ein Gewicht von 2 bildet diese Balance ab.
Strategischer Fit (Gewicht 2) — Ein neuer Ankerkunde oder die erste Bundesbehörde als Referenz ist mehr wert als der nominale Auftragswert. Genauso kann ein Auftrag strategisch schädlich sein (Technologie-Sackgasse, unliebsame Öffentlichkeit).
Incumbent-Situation (Gewicht 2) — Ein etablierter Bestandsdienstleister ist schwer zu verdrängen. Wer den Auftrag seit fünf Jahren hat, kennt die Vergabestelle, die Prozesse, die Menschen. Das lässt sich selten in einem Angebot aufholen.
Frist-Realismus (Gewicht 2) — Sehr kurze Fristen sind ein klassisches Warnsignal für zugeschnittene Ausschreibungen. Mehr dazu im Artikel Zugeschnittene Ausschreibungen erkennen.
Weitere Kriterien (Gewicht 1) — Die letzten vier Faktoren sind Feintuning. Sie entscheiden selten ein Angebot allein, können aber bei zwei ansonsten gleichwertigen Ausschreibungen den Ausschlag geben.
Drei Praxisbeispiele
Die folgenden Fälle zeigen, wie die Matrix in der Praxis wirkt. Die Zahlen sind repräsentativ, aber nicht aus einem konkreten Einzelfall — es geht um das Muster, nicht um eine echte Firma.
Beispiel A: Klarer Go (78 Punkte)
Kontext: Ein Abruf aus einem bestehenden Rahmenvertrag für Cloud-Beratung beim Bundesamt für X. Sie sind einer von drei gelisteten Anbietern, die Vergabestelle kennt Sie aus zwei erfolgreichen Vorprojekten.
| Kriterium | Bewertung | Gewicht | Punkte |
|---|---|---|---|
| Eignung | 5 | 3 | 15 |
| Technisches Match | 5 | 3 | 15 |
| Erfolgswahrscheinlichkeit (35 %) | 4 | 3 | 12 |
| Kapazität | 4 | 2 | 8 |
| Marge | 3 | 2 | 6 |
| Strategischer Fit | 4 | 2 | 8 |
| Incumbent | 4 | 2 | 8 |
| Frist | 3 | 2 | 6 |
| Vollständigkeit | — | 1 | — |
| Grauzonen | — | 1 | — |
| Geografie | — | 1 | — |
| Politik | — | 1 | — |
| Summe | 78 |
Entscheidung: Klares Go, Angebotsteam wird aufgesetzt.
Beispiel B: Bedingtes Go (54 Punkte)
Kontext: Neue EU-weite Ausschreibung einer Landesbehörde, die technisch zu 70 Prozent passt. Starkes Match mit Ihren Kernleistungen, aber die Frist ist mit 28 Tagen knapp und es gibt einen langjährigen Incumbent, den Sie nur vom Namen kennen.
| Kriterium | Bewertung | Gewicht | Punkte |
|---|---|---|---|
| Eignung | 4 | 3 | 12 |
| Technisches Match | 4 | 3 | 12 |
| Erfolgswahrscheinlichkeit (15 %) | 2 | 3 | 6 |
| Kapazität | 3 | 2 | 6 |
| Marge | 3 | 2 | 6 |
| Strategischer Fit | 4 | 2 | 8 |
| Incumbent | 1 | 2 | 2 |
| Frist | 1 | 2 | 2 |
| Weitere | — | — | 0 |
| Summe | 54 |
Entscheidung: Bedingtes Go. Konsequenz: Zunächst eine Bieterfrage zur Fristverlängerung stellen und parallel klären, ob ein Bestandspartner den Incumbent kennt. Wenn die Frist verlängert wird und der Incumbent als verwundbar eingeschätzt wird, wird aus dem Bedingten Go ein finales Go. Falls nicht: No-Go.
Beispiel C: No-Go (32 Punkte)
Kontext: Eine Ausschreibung einer Ihnen unbekannten Kommune fordert einen Senior-Berater mit mindestens fünf Jahren Erfahrung, drei Referenzen im exakten Themengebiet und einer ungewöhnlichen Zertifizierungskombination. Die Frist beträgt 14 Tage.
| Kriterium | Bewertung | Gewicht | Punkte |
|---|---|---|---|
| Eignung | 2 | 3 | 6 |
| Technisches Match | 3 | 3 | 9 |
| Erfolgswahrscheinlichkeit (<5 %) | 1 | 3 | 3 |
| Kapazität | 2 | 2 | 4 |
| Marge | 2 | 2 | 4 |
| Strategischer Fit | 1 | 2 | 2 |
| Incumbent | 2 | 2 | 4 |
| Frist | 0 | 2 | 0 |
| Weitere | — | — | 0 |
| Summe | 32 |
Entscheidung: Klares No-Go. Die Kombination aus extrem kurzer Frist, ungewöhnlichen Zertifizierungsanforderungen und einer unbekannten Kommune deutet auf eine bereits vorentschiedene Vergabe hin. Hier lohnt sich kein Angebot — und wenn die Ausschreibung wirklich fair war, lernen Sie das aus dem Rückblick.
Was in der Matrix nicht vorkommt (und warum)
Die Matrix bewertet die Go/No-Go-Entscheidung — nicht das Angebot selbst. Drei Dinge bleiben deshalb bewusst außen vor:
Preisstrategie. Ob Sie aggressiv oder mit Premium-Positionierung anbieten, gehört in die Angebotsphase nach dem Go. In der Matrix fließt der Preis nur indirekt über das Margenpotenzial ein.
Team-Motivation. Ob Ihr Team Lust auf den Auftrag hat, ist ein weicher Faktor, den Sie nicht quantifizieren sollten. Lassen Sie ihn in den Workshops vor der Angebotsphase auftauchen — nicht in der Matrix.
Kundenbeziehung zur Vergabestelle. Diese Information steckt bereits in "strategischer Fit" und "Incumbent-Situation". Ein eigenes Kriterium würde Kriterien doppelt zählen.
Typische Fehler in der Anwendung
Jedes Kriterium gleich gewichten. Wer alle Kriterien auf Gewicht 1 setzt, bekommt ein Messsystem, das Eignung und geografische Nähe gleich behandelt. Das ist falsch. Die Gewichtungen müssen die tatsächliche Bedeutung des Kriteriums abbilden.
Die Matrix einmal ausfüllen und nie wieder anfassen. Eine Matrix ohne Review-Rhythmus wird zum Bürokratie-Ritual. Gleichen Sie alle zehn Durchläufe die Schätzungen mit dem tatsächlichen Ergebnis ab: Wurde das als "Go" eingestufte Angebot gewonnen? Wurde das "No-Go" wirklich vergeben, wie vermutet?
Nur der Bid Manager entscheidet. Bis 60 Punkte kann ein erfahrener Bid Manager allein entscheiden. Darüber gehört die Entscheidung auf die Geschäftsführungs-Ebene — nicht wegen Bürokratie, sondern weil ein Go über Ressourcen entscheidet, die nicht mehr für andere Angebote zur Verfügung stehen.
Die Matrix als Alibi nutzen. "Die Matrix hat 62 Punkte ergeben, also bieten wir an" — obwohl das Bauchgefühl Nein sagt. Eine Matrix ist ein Werkzeug zur strukturierten Diskussion, kein Orakel. Wenn Punktzahl und Intuition auseinanderlaufen, liegt meist ein Fehler in der Bewertung vor. Durchgehen und neu bewerten, nicht blind dem Ergebnis folgen.
Nur die "sichere" Ausschreibung bewerten. Wer nur Fälle mit klarem Go durchrechnet, lernt nichts. Die wertvollsten Erkenntnisse stecken in den Bedingt-Go-Fällen — also genau da, wo die Diskussion anfängt.
Die Matrix als Prozess verankern
Ein einmal ausgefülltes Excel-Dokument ist keine Prozess-Veränderung. Damit aus der Matrix ein verlässlicher Bestandteil Ihres Bid Managements wird, empfehlen sich drei Stufen.
Erste drei Monate: Jede Ausschreibung dokumentieren. Das bedeutet auch No-Gos. Ohne die Datenbasis lernen Sie nichts über Ihre Fehlschätzungen.
Nach zehn Durchläufen: Gewichtungen prüfen. Passen die vorgeschlagenen Gewichtungen zu Ihrer Realität? Vielleicht ist Marge bei Ihnen wichtiger als in der Standard-Matrix, vielleicht spielt geografische Nähe eine größere Rolle. Anpassen und dokumentieren, warum.
Nach sechs Monaten: Hit-Rate-Review. Gleichen Sie die Punktzahlen Ihrer Go-Entscheidungen mit den tatsächlichen Gewinnquoten ab. Lag die durchschnittliche Gewinnwahrscheinlichkeit der 75-Punkte-Cases wirklich bei 40 Prozent? Falls nicht, justieren Sie die Bewertungsskala für die Erfolgswahrscheinlichkeit.
Diese Disziplin ist die Grundlage für jedes spätere Angebotsmanagement-Tool. Software kann einen Prozess beschleunigen — aber keinen Prozess ersetzen, den es nicht gibt.
Abgrenzung zu Risikoanalyse und Red-Flag-Prüfung
Die Go/No-Go-Matrix wird manchmal mit zwei verwandten Werkzeugen verwechselt. Der Unterschied ist relevant.
Die Risikoanalyse in der Angebotsphase findet nach dem Go statt und bewertet, welche operativen, vertraglichen und technischen Risiken in der Umsetzung entstehen. Sie ersetzt die Go/No-Go-Entscheidung nicht, sondern folgt ihr.
Die Red-Flag-Prüfung ist ein Teilaspekt der Go/No-Go-Entscheidung — sie hilft, zugeschnittene oder problematische Ausschreibungen zu identifizieren. In der 12-Punkte-Matrix fließt dieses Ergebnis in mehrere Kriterien ein (Frist, Grauzonen, Vollständigkeit), ersetzt aber keine der Bewertungen.
Wer alle drei Werkzeuge systematisch einsetzt, hat einen sauberen Drei-Stufen-Prozess: Red-Flag-Screening im ersten Blick, Go/No-Go-Matrix für die Entscheidung, Risikoanalyse für die Umsetzungsfreigabe.
Häufig gestellte Fragen
Wie unterscheidet sich eine Go/No-Go-Entscheidung von einer Risikoanalyse?
Die Go/No-Go-Entscheidung beantwortet: Bieten wir an oder nicht? Sie findet vor dem Start der Angebotsausarbeitung statt und bewertet Passung, Erfolgschance und Aufwand. Die Risikoanalyse beantwortet: Wenn wir gewinnen, welche Risiken müssen wir einpreisen, vertraglich absichern oder vermeiden? Sie findet nach dem Go statt und bezieht sich auf die Umsetzungsphase.
Wie oft sollte die Matrix angepasst werden?
Die erste Kalibrierung nach etwa zehn Durchläufen, danach halbjährlich. Außerhalb des Zyklus nur bei fundamentalen Änderungen: neue Unternehmensstrategie, neues Leistungsspektrum, neue Zielmärkte.
Kann die Matrix auch für privatwirtschaftliche Ausschreibungen genutzt werden?
Ja, mit Anpassungen. Formale Eignungskriterien spielen im privaten Sektor eine geringere Rolle, dafür werden Kundenbeziehung und Preisdynamik wichtiger. Die zwölf Kriterien bleiben weitgehend gleich, die Gewichtungen verschieben sich.
Wer entscheidet bei Uneinigkeit im Team?
Der Bid Manager ist für die Matrix zuständig. Bei Bedingtem Go zieht er Geschäftsführung oder Sales Lead hinzu. Bei Uneinigkeit entscheidet in der Regel die Geschäftsführung — aber immer auf Basis der Matrix-Werte, nicht gegen sie.
Was tun, wenn mehrere Ausschreibungen gleichzeitig Go-Status haben?
Das ist ein gutes Problem. Wenn Sie tatsächlich zu wenige Ressourcen haben, nehmen Sie die Ausschreibung mit der höchsten Punktzahl und dem stärksten strategischen Fit. Wenn die Punktzahlen vergleichbar sind, entscheidet die Erfolgswahrscheinlichkeit. Parallel lohnt sich die Frage, ob Kapazität (intern oder über Partner) erweiterbar ist.
Zusammenfassung — Die wichtigsten Erkenntnisse:
- Eine strukturierte Go/No-Go-Matrix reduziert Angebotsaufwand um 30 bis 50 Prozent
- Drei harte Ausschluss-Checks vor der Matrix: Eignung, Kapazität, Vertragsmodell
- 12 Kriterien mit Gewichtung, maximale Punktzahl 100, Schwellenwerte bei 40 und 60
- Die drei wichtigsten Kriterien (Gewicht 3): Eignung, technisches Match, Erfolgswahrscheinlichkeit
- Die Matrix ist Diskussionshilfe, kein Orakel — Punktzahl und Intuition müssen kalibriert werden
- Review-Rhythmus: alle zehn Durchläufe Gewichtungen prüfen, halbjährlich Hit-Rate-Abgleich
Fazit: Systematische Entscheidungen sind kein Zeitfresser, sondern ein Zeitgewinn
Wer sich zum ersten Mal mit einer strukturierten Go/No-Go-Matrix beschäftigt, hat oft den Eindruck, dass die Bürokratie den Prozess verlangsamt. Das Gegenteil ist der Fall: Die Matrix reduziert die Entscheidungszeit von zwei Stunden Diskussion auf 15 Minuten strukturierte Bewertung — und erhöht gleichzeitig die Qualität der Entscheidungen, weil Kriterien nicht mehr je nach Tagesform unterschiedlich gewichtet werden.
Der wichtigste Effekt liegt auf der Meta-Ebene. Wer No-Gos klar begründet, baut über Zeit eine Datenbank an Lernsignalen auf. Welche Ausschreibungen wurden als No-Go bewertet und trotzdem von anderen gewonnen? Wo haben wir unsere Erfolgswahrscheinlichkeit unterschätzt? Welche Kriterien unterscheiden zuverlässig Gewinner von Verlierern? Diese Fragen sind nur beantwortbar, wenn Entscheidungen dokumentiert sind — und genau das leistet die Matrix.
Die nächste Stufe der Automatisierung besteht darin, Teile der Bewertung an ein Tool zu delegieren: Eignungs-Check gegen Ihr hinterlegtes Unternehmensprofil, Red-Flag-Erkennung aus den Vergabeunterlagen, Erfolgswahrscheinlichkeits-Schätzung auf Basis historischer Daten. Wer an diesem Punkt ist, findet passende Lösungen im Ausschreibungs-Software-Vergleich.
Tendit automatisiert die Vor-Qualifizierung: Profil-Abgleich, Red-Flag-Erkennung und Matrix-basierte Empfehlung pro Ausschreibung. 8 Wochen kostenlos testen: usetendit.com
Verpassen Sie keine relevante IT-Ausschreibung mehr
Tendit findet automatisch die passenden öffentlichen Aufträge für Ihr Unternehmen. 8 Wochen kostenlos.
Jetzt kostenlos testen


