Ich würde möglichst gar nichts messen. Wer misst, misst Mist.
Denn die Konsequenz aus einer Messung ist, dass man optimieren will. Wenn man optimieren will, dann tappt man immer in die Falle, dass Programmierleistung eine höchst ungenau erfassbare Messgröße ist, und jegliche Art der Messung und insbesondere der Optimierungsversuche sehr leicht vom Programmierer berücksichtigt und in die Codeerstellung integriert werden kann. Das führt dann aber nicht automatisch zu besserem Code - teilweise ist das Gegenteil der Fall.
Einverstanden.
Es sind auch vielleicht zwei verschiedene Aufgaben, die Qualität eines Coders festzustellen zwecks Auftragsvergabe, und die Beurteilung der Arbeit nach Ablieferung.
Optimierungsversuchen kannst du durch klare Richtlinien bezüglich Formatierung, Kommentare, sprechende Variablennamen und Wiederverwertbarkeit von Code vorbeugen.
Aber ich meine dennoch, dass "Bytes" einen Messwert (unter anderen) ergibt, in der Annahme, dass ein Coder sich bei jedem Zeichen etwas denkt. Du kannst so oder so Perl schreiben. Aber der Code-Nachfolger wird dann so oder so oft zum Giftschrank schreiten.
mfg Beat
><o(((°> ><o(((°>
<°)))o>< ><o(((°>o
Der Valigator leibt diese Fische