Als Gesicht für einen Roboter muss Mask-Bot allerdings unabhängig von einer Videoübertragung sein, hinter der ja ein sprechender Mensch steht. Ein neu entwickeltes Programm sorgt dafür, dass dem Computer bereits ein normales, zweidimensionales Foto ausreicht, um es richtig proportioniert in eine Projektion für eine dreidimensionale Maske umzuwandeln. Weitere Algorithmen verleihen dem Gesicht Mimik und Sprache.
Damit der Maschinenmensch auch ein Mienenspiel hat, entwickelte Takaaki Kuratate die »Talking Head Animation Engine«: Zunächst sammelt ein spezielles Kamerasystem zahlreiche Informationen über das Mienenspiel menschlicher Probanden. Daraus filtert und abstrahiert ein Computer die Gesichtsausdrücke, die zu einem bestimmten Laut passen, wenn er gesprochen wird. Aus jedem dieser Gesichtsausdrücke wurde ein Set an Gesichtspunkten extrahiert, die der Computer nun jedem neuen Gesicht zuordnen und es so beleben kann. Eine »Emotion Synthesis Software« gibt dem künstlichen Gesicht eine emotionale Färbung, indem sie dafür sorgt, dass es bei Bedarf fröhlich, traurig oder wütend schaut. Mask-Bot kann übrigens schon jetzt realistisch nachsprechen, was ihm über eine Tastatur eingetippt wird. Englisch, Japanisch und bald auch Deutsch: Eine »Text To Speech«-Programmierung setzt den Text in Audiosignale um. Auf Knopfdruck einmal als Frauen- oder Männerstimme, einmal leiser, ein anderes Mal lauter und fröhlicher.