Bewertungskriterien

Aus Ameise-de
Version vom 13. August 2013, 14:42 Uhr von Chriz90 (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springenZur Suche springen

Zielvorgaben

Zu folgenden Zielvorgaben können Auswertungen abgerufen werden:

  • Projektdauer
  • Budget
  • Realisierte AFPs im Code in Prozent
  • Fehler pro KLOC im Code
  • realisierte AFPs im Handbuch in Prozent
  • Fehler pro Seite im Handbuch


Bei den Zielvorgaben handelt es sich um die wichtigsten Bewertungskriterien. Schließlich möchte der Spieler nach der Beendigung des Projekts wissen, ob er das Projekt innerhalb des vorgegebenen Budget- bzw. Zeitrahmens eingehalten hat und trotzdem die geforderten AFPs für Code und Handbuch realisieren konnte. Für jede Zielvorgabe liefert die Auswertungskomponente eine textuelle Beschreibung.


>> Zurück zu:Klassifikation der Bewertungskriterien


Vollständigkeit der Dokumente

Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert.


Restfehler der Dokumente

Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:

  • Restfehler der Dokumente
  • Restfehler in der Spezifikation
  • Restfehler im Systemdesign
  • Restfehler im Moduldesign
  • Restfehler im Code
  • Restfehler im Handbuch


>> Zurück zu:Klassifikation der Bewertungskriterien


Effizienz von Reviews bzw. Tests

Dieses Bewertungskriterium stellt den Aufwand für Reviews bzw. Tests, die gefundenen Fehler und den Aufwand für die Korrektur dieser Fehler gegenüber. Mit Hilfe dieser Diagramme kann auf einen Blick festgestellt werden, ob ein Review bzw. Test effizient durchgeführt wurde oder nicht.

  • Effizienz der Spezifikationsreviews
  • Effizienz der Systemdesignreviews
  • Effizienz der Moduldesignreviews
  • Effizienz der Codereviews
  • Effizienz der Handbuchreviews
  • Effizienz der Modultests
  • Effizienz der Systemtests
  • Effizienz der Integrationstests


Effektivität von Reviews

Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.

  • Effektivität der Spezifikationsreviews
  • Effektivität der Systemdesignreviews
  • Effektivität der Moduldesignreviews
  • Effektivität der Codereviews
  • Effektivität der Handbuchreviews


>> Zurück zu:Klassifikation der Bewertungskriterien


Verluste durch Reviews bzw. Tests

Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.

  • Verluste in Tests
  • Verluste in Reviews


Aufwandsverteilung

Dieses Bewertungskriterium zeigt die Verteilung des Aufwands über die Phasen Spezifikation, Entwurf, Codierung, Test und Handbucherstellung. >> zum Diagramm


Autoren der Dokumente

Diese Auswertung soll prüfen, ob der Spieler für die einzelnen Phasen die richtigen Mitarbeiter eingesetzt hat. Zur Verfügung stehen folgende Auswertungen:

  • Autor/Autoren der Spezifikation
  • Autor/Autoren des Systemdesigns
  • Autor/Autoren des Moduldesigns
  • Autor/Autoren des Codes
  • Autor/Autoren des Handbuchs