Bewertungskriterien: Unterschied zwischen den Versionen

Aus Ameise-de
Zur Navigation springenZur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(Eine dazwischenliegende Version desselben Benutzers wird nicht angezeigt)
Zeile 3: Zeile 3:
* Projektdauer
* Projektdauer
* Budget
* Budget
* Realisierte AFPs im Code in Prozent >> [[zum Diagramm]]
* Realisierte AFPs im Code in Prozent  
* Fehler pro KLOC im Code
* Fehler pro KLOC im Code
* realisierte AFPs im Handbuch in Prozent
* realisierte AFPs im Handbuch in Prozent
Zeile 12: Zeile 12:




>> [[Zurück zu:Klassifikation der Bewertungskriterien]]
>> Zurück zu:[[Klassifikation der Bewertungskriterien]]


   
   
==Vollständigkeit der Dokumente==
==Vollständigkeit der Dokumente==
Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert. >> [[zum Diagramm]]
Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert.  
 
   
   
==Restfehler der Dokumente==
==Restfehler der Dokumente==
Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:
Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:
* Restfehler der Dokumente >> [[zum Diagramm]]
* Restfehler der Dokumente  
* Restfehler in der Spezifikation
* Restfehler in der Spezifikation
* Restfehler im Systemdesign
* Restfehler im Systemdesign
Zeile 31: Zeile 30:




>> [[Zurück zu:Klassifikation der Bewertungskriterien]]
>> Zurück zu:[[Klassifikation der Bewertungskriterien]]


   
   
Zeile 41: Zeile 40:
* Effizienz der Moduldesignreviews
* Effizienz der Moduldesignreviews
* Effizienz der Codereviews
* Effizienz der Codereviews
* Effizienz der Handbuchreviews >> [[zum Diagramm]]
* Effizienz der Handbuchreviews  
* Effizienz der Modultests
* Effizienz der Modultests
* Effizienz der Systemtests
* Effizienz der Systemtests
Zeile 51: Zeile 50:
Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.
Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.
* Effektivität der Spezifikationsreviews
* Effektivität der Spezifikationsreviews
* Effektivität der Systemdesignreviews >> [[zum Diagramm]]
* Effektivität der Systemdesignreviews  
* Effektivität der Moduldesignreviews
* Effektivität der Moduldesignreviews
* Effektivität der Codereviews
* Effektivität der Codereviews
Zeile 57: Zeile 56:




>> [[Zurück zu:Klassifikation der Bewertungskriterien]]
>> Zurück zu:[[Klassifikation der Bewertungskriterien]]


   
   
Zeile 64: Zeile 63:
Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.
Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.
* Verluste in Tests
* Verluste in Tests
* Verluste in Reviews >> [[zum Diagramm]]
* Verluste in Reviews  


   
   
Zeile 79: Zeile 78:


* Autor/Autoren der Spezifikation
* Autor/Autoren der Spezifikation
* Autor/Autoren des Systemdesigns >> [[zum Diagramm]]
* Autor/Autoren des Systemdesigns  
* Autor/Autoren des Moduldesigns
* Autor/Autoren des Moduldesigns
* Autor/Autoren des Codes
* Autor/Autoren des Codes

Aktuelle Version vom 13. August 2013, 14:42 Uhr

Zielvorgaben

Zu folgenden Zielvorgaben können Auswertungen abgerufen werden:

  • Projektdauer
  • Budget
  • Realisierte AFPs im Code in Prozent
  • Fehler pro KLOC im Code
  • realisierte AFPs im Handbuch in Prozent
  • Fehler pro Seite im Handbuch


Bei den Zielvorgaben handelt es sich um die wichtigsten Bewertungskriterien. Schließlich möchte der Spieler nach der Beendigung des Projekts wissen, ob er das Projekt innerhalb des vorgegebenen Budget- bzw. Zeitrahmens eingehalten hat und trotzdem die geforderten AFPs für Code und Handbuch realisieren konnte. Für jede Zielvorgabe liefert die Auswertungskomponente eine textuelle Beschreibung.


>> Zurück zu:Klassifikation der Bewertungskriterien


Vollständigkeit der Dokumente

Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert.


Restfehler der Dokumente

Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:

  • Restfehler der Dokumente
  • Restfehler in der Spezifikation
  • Restfehler im Systemdesign
  • Restfehler im Moduldesign
  • Restfehler im Code
  • Restfehler im Handbuch


>> Zurück zu:Klassifikation der Bewertungskriterien


Effizienz von Reviews bzw. Tests

Dieses Bewertungskriterium stellt den Aufwand für Reviews bzw. Tests, die gefundenen Fehler und den Aufwand für die Korrektur dieser Fehler gegenüber. Mit Hilfe dieser Diagramme kann auf einen Blick festgestellt werden, ob ein Review bzw. Test effizient durchgeführt wurde oder nicht.

  • Effizienz der Spezifikationsreviews
  • Effizienz der Systemdesignreviews
  • Effizienz der Moduldesignreviews
  • Effizienz der Codereviews
  • Effizienz der Handbuchreviews
  • Effizienz der Modultests
  • Effizienz der Systemtests
  • Effizienz der Integrationstests


Effektivität von Reviews

Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.

  • Effektivität der Spezifikationsreviews
  • Effektivität der Systemdesignreviews
  • Effektivität der Moduldesignreviews
  • Effektivität der Codereviews
  • Effektivität der Handbuchreviews


>> Zurück zu:Klassifikation der Bewertungskriterien


Verluste durch Reviews bzw. Tests

Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.

  • Verluste in Tests
  • Verluste in Reviews


Aufwandsverteilung

Dieses Bewertungskriterium zeigt die Verteilung des Aufwands über die Phasen Spezifikation, Entwurf, Codierung, Test und Handbucherstellung. >> zum Diagramm


Autoren der Dokumente

Diese Auswertung soll prüfen, ob der Spieler für die einzelnen Phasen die richtigen Mitarbeiter eingesetzt hat. Zur Verfügung stehen folgende Auswertungen:

  • Autor/Autoren der Spezifikation
  • Autor/Autoren des Systemdesigns
  • Autor/Autoren des Moduldesigns
  • Autor/Autoren des Codes
  • Autor/Autoren des Handbuchs