Bewertungskriterien: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 12: | Zeile 12: | ||
>> | >> Zurück zu:[[Klassifikation der Bewertungskriterien]] | ||
Zeile 31: | Zeile 31: | ||
>> | >> Zurück zu:[[Klassifikation der Bewertungskriterien]] | ||
Zeile 57: | Zeile 57: | ||
>> | >> Zurück zu:[[Klassifikation der Bewertungskriterien]] | ||
Version vom 9. Mai 2013, 12:15 Uhr
Zielvorgaben
Zu folgenden Zielvorgaben können Auswertungen abgerufen werden:
- Projektdauer
- Budget
- Realisierte AFPs im Code in Prozent >> zum Diagramm
- Fehler pro KLOC im Code
- realisierte AFPs im Handbuch in Prozent
- Fehler pro Seite im Handbuch
Bei den Zielvorgaben handelt es sich um die wichtigsten Bewertungskriterien. Schließlich möchte der Spieler nach der Beendigung des Projekts wissen, ob er das Projekt innerhalb des vorgegebenen Budget- bzw. Zeitrahmens eingehalten hat und trotzdem die geforderten AFPs für Code und Handbuch realisieren konnte. Für jede Zielvorgabe liefert die Auswertungskomponente eine textuelle Beschreibung.
>> Zurück zu:Klassifikation der Bewertungskriterien
Vollständigkeit der Dokumente
Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert. >> zum Diagramm
Restfehler der Dokumente
Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:
- Restfehler der Dokumente >> zum Diagramm
- Restfehler in der Spezifikation
- Restfehler im Systemdesign
- Restfehler im Moduldesign
- Restfehler im Code
- Restfehler im Handbuch
>> Zurück zu:Klassifikation der Bewertungskriterien
Effizienz von Reviews bzw. Tests
Dieses Bewertungskriterium stellt den Aufwand für Reviews bzw. Tests, die gefundenen Fehler und den Aufwand für die Korrektur dieser Fehler gegenüber. Mit Hilfe dieser Diagramme kann auf einen Blick festgestellt werden, ob ein Review bzw. Test effizient durchgeführt wurde oder nicht.
- Effizienz der Spezifikationsreviews
- Effizienz der Systemdesignreviews
- Effizienz der Moduldesignreviews
- Effizienz der Codereviews
- Effizienz der Handbuchreviews >> zum Diagramm
- Effizienz der Modultests
- Effizienz der Systemtests
- Effizienz der Integrationstests
Effektivität von Reviews
Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.
- Effektivität der Spezifikationsreviews
- Effektivität der Systemdesignreviews >> zum Diagramm
- Effektivität der Moduldesignreviews
- Effektivität der Codereviews
- Effektivität der Handbuchreviews
>> Zurück zu:Klassifikation der Bewertungskriterien
Verluste durch Reviews bzw. Tests
Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.
- Verluste in Tests
- Verluste in Reviews >> zum Diagramm
Aufwandsverteilung
Dieses Bewertungskriterium zeigt die Verteilung des Aufwands über die Phasen Spezifikation, Entwurf, Codierung, Test und Handbucherstellung. >> zum Diagramm
Autoren der Dokumente
Diese Auswertung soll prüfen, ob der Spieler für die einzelnen Phasen die richtigen Mitarbeiter eingesetzt hat. Zur Verfügung stehen folgende Auswertungen:
- Autor/Autoren der Spezifikation
- Autor/Autoren des Systemdesigns >> zum Diagramm
- Autor/Autoren des Moduldesigns
- Autor/Autoren des Codes
- Autor/Autoren des Handbuchs