Es steht in -zig Artikeln, man solle vermeiden, dass eine Seite mit www und ohne www erreicht werden kann (Double Content).
mit anderen worten: es steht also in -zig artikel praxisferner unsinn - man sollte sich halt doch auf aussagen von suchmaschinenbetreibern verlassen
duplicate content ist nur von relevaz, wenn eine vollig fremde domain den selben _inhalt_ ausliefert
auch wenn sich der von mir verlinkte artikel ausschließlich auf google bezieht: jeder suchmaschinenanbieter mit halbwegs hirnschmalz kann sich an 5 fingern abzählen, dass www.example.com und example.com mit exakt dem selben _quelltext_ identisch sind und einer der klone ausgefiltert gehört - sogar example.com und example.net (solange sie auf die selbe ip verweisen), wären kein problem
problematisch ist duplizierter inhalt nur dann, wenn dir jemand deinen inhalt klaut oder du jemandem den inhalt klaust - das ist aber kein suchmaschinenseitiges problem sondern ein urheberrechtsproblem welches nicht durch irgendwelche umleitungen auf redundante subdomains gelöst werden kann
in diesem sinne www.www.extra-www.org lässt grüßen