Performance Capturing wird zur Zeit aber noch benötigt, solange die aber im Kostüm rumlaufen, ja ist es inzwischen einfacher die aus dem PC zu machen. Noch paar Jahre und man kann auch voll aufs Drehen verzichten, aber Performance Capturing wird noch paar Jahre länger benötigt, denke ich mal. Gibt aber ja schon Versuche die Toten wiederzubeleben, ein Regisseur will zB nen Film mit James Dean machen. Dabei helfen wird sicherlich, das anscheinend die KIs schon soweit sind Stimmen komplett zu erzeugen,
wie man hier hören kann. Mal schaun, wie sich die Technologie entwickelt, würde aber sicherlich erstmal nur für Spiele und Zeichentrick geeignet sein. Wäre natürlich cool, wenn man dann ne Performance einfach per Switch in jede mögliche Sprache umwandelt.
Das sich die Charaktermodelle in Videospielen nicht so stark verändern wie die Umgebung liegt wohl auch an den Methoden, die man anwendet. Für Umgebungen kann man nämlich Photogrammerie nutzen, also superhochauflösende echte Bilder, die zu Texturen umgewandelt werden. Bei Lebewesen geht das eben nicht so gut, weil man da auch Muskeln animieren müsste, da können die Texturen noch so hoch aufgelöst sein, sie schauen unnatürlich aus. Das bekommt man im Kino immer besser hin, aber für Echtzeitberechnungen wird das noch 1-2 Generationen weg sein.