

P: Czy wciąż jest trudno stworzyć realistycznie wygenerowaną komputerowo wodę lub włosy, albo inne obiekty o podobnej komplikacji?
O: Oczywiście. Woda i włosy to doskonały przykład obiektów z prawdziwego świata, które mają zarówno bardzo złożony ruch jak i wygląd. Inne przykłady to chmury, ogień, czy dym. Wyglądają różnie w różnych wielkościach. Od razu widzimy różnice między oceanem, jeziorem czy kałużą, lub między futrem kota czy jaka. I choć wiemy jaka jest różnica między animowaniem pseudopoda w „Otchłani” (Jamesa Camerona) od fali uderzeniowej z „Dnia zagłady”, „Gniew oceanu” zaczynaliśmy praktycznie od początku.
Ale dużo się też uczymy za każdym razem. Choćby w sprawie włosów, dziś mamy mnóstwo standardowych narzędzi jak się obchodzić z cyfrowym futrem, zwłaszcza tego rodzaju, który jest nam najczęściej potrzebny. Gdy pracowałem nad „101 dalmatyńczykami” spędziłem kilka miesięcy pracując nad wyglądem futra szczeniaków, ale obecnie stworzenie stwora z futrem to kwestia tygodni. Podobnie w przypadku „Gniewu Oceanu” mieliśmy cały dział wodny, ale dziś możemy tworzyć mnóstwo efektów związanych z wodą. Próbowaliśmy bardzo wielu rzeczy i obecnie mamy bardzo dużą listę narzędzi. Te same narzędzia służą nam potem w innych projektach, gdzie trzeba generować komputerowo wodę, jak choćby w „A.I. Sztuczna inteligencja”.