Die übersetzte Fragerunde

Q&A-Session mit Richard Devine – Der Produzent, Musiker & Sounddesigner

Anzeige

Am 14. April 2020 hatte ich die Ehre, Richard Devine in seinem ersten Livestream bei uns begrüßen zu dürfen. Hier die Kurzfassung unseres Gesprächs für euch zum Nachlesen.

Anzeige

Richard Devine ist Sounddesigner, Audio-Programmierer und Komponist. Seine Credits lesen sich wie meine persönliche Traumjobliste. Er hat für Firmen wie Native Instruments, Arturia, Eventide, iZotope, Digidesign, Ableton, Korg und Access Virus gearbeitet, und auch außerhalb der Audiowelt war er an unzähligen spannenden Projekten für Firmen wie HBO, Nike, XBox, Sprite und Lexus beteiligt. Er hat Sounds für Videospiele wie Doom 4 und Cyberpunk 2077 komponiert, Künstler wie Aphex Twin und Mike Patton geremixed und neben all dem auch noch Alben auf Labels wie Warp und Sublight Records rausgebracht. Das führt mich auch direkt zu meiner ersten Frage …

Welches war für dich persönlich das interessanteste und herausforderndste Projekt, an dem du bisher gearbeitet hast?

Ich mag es generell, an Projekten zu arbeiten, die neu für mich sind, die mit Sounds und Technologien zu tun haben, die ich noch nicht kenne. Sie bringen mich aus meiner Komfortzone und zwingen mich dazu, mir neue Skills anzueignen, mich weiterzuentwickeln. Sehr interessant waren zum Beispiel die Projekte, an denen ich mit Google zusammengearbeitet habe. Ich habe viele ambisonische 360°-Virtual-Reality-Sounds für Daydream und Google Earth VR aufgenommen und gemischt.

Ich hatte davor nie in einer virtuellen Realität oder mit ambisonischen Aufnahmen gearbeitet, das war faszinierend. Man kann in der VR-Umgebung die verschiedensten Orte rund um die Welt besuchen, und es fühlt sich tatsächlich so an, als wärst du direkt am Grand Canyon, am Ozean oder im Wald. Es am Ende selbst zu erleben war überwältigend.

Das kann ich mir gut vorstellen! Was für Equipment hast du für das Projekt benutzt?

Wir haben mehrere Mikrofone benutzt, das Ambeo-VR-Mikrofon von Sennheiser zum Beispiel und das Soundfield ST450-Ambisonic-Mikrofon, das sehr kompakt ist und mit einer Decoder-Box geliefert wird. Das ist meines Wissens das einzige System mit einem Mono zu Stereo zu Surround zu vollem Ambisonic-Echtzeit-Monitoring direkt aus der Box. Damit kann man die Aufnahmen vor Ort anhören und nicht erst im Studio per Software. Das war klasse, ich konnte sofort testen, wie meine Sounds klingen würden.

Allerdings gab es viele Probleme während der Aufnahmen, von denen ich eigentlich dachte, dass sie leicht zu bewältigen sein werden. Wir haben zum Beispiel Monate damit verbracht, Wind aufzunehmen. Wir haben eine sanfte Brise gebraucht, aber entweder war der Wind zu stark, oder man hat zu viel Geraschel gehört. Ich musste letztendlich zu einer Software greifen, um die Windgeräusche zu erzeugen und so die Stärke des Windes kontrollieren zu können.

Oder Grillen. Man könnte annehmen, das wäre auch einfach oder? Ich war an 50 bis 60 verschiedenen Orten, um Grillen aufzunehmen, aber es war nie die richtige Menge an Grillen, die ich für eine spezielle Szene in Daydream gebraucht habe. Ich habe dann einen Pure-Data-Patch verwendet, mit dem ich die Grillen-Sounds synthetisch erzeugt habe und bestimmen konnte, wie viele Grillen zu hören sein sollten. So konnte ich auch einstellen, dass erstmal nur eine Grille links zu hören sein soll, dann rechts, dann in der Mitte und danach hinten. Und das alles in einer isolierten Umgebung, denn ein anderes Problem, das wir lösen mussten, war die Lärmbeeinträchtigung. Wir hörten Motorräder auf den Aufnahmen, entfernte Highway-Geräusche, Flugzeuge, andere Tiere … es ist fast unmöglich, alle Geräusche zu entfernen. Aber es gibt immer Möglichkeiten, um zum Ziel zu gelangen, man muss nur kreativ werden und andere, neue Wege finden.

Ein anderes spannendes Projekt, von dem ich gelesen habe, ist deine Arbeit an dem neuen elektrischen Auto von Jaguar namens I-PACE. Könntest du uns darüber etwas mehr erzählen?

Das war ein sehr herausfordernder Job. Es hat ganze vier bis fünf Jahre gedauert, bis wir das Auto auf den Markt gebracht haben. Ich hatte seit ungefähr 2013 an mehreren Prototypen mitgearbeitet, wir haben sehr viel getestet und ausprobiert, um zu sehen, was funktioniert.

Sounds für ein Auto zu designen war etwas komplett Neues für mich. Ich musste mir erstmal im Klaren darüber werden, wie man das Ganze überhaupt angehen soll. Da ich viele Jahre für Videospiel-Firmen gearbeitet habe und mich mit Programmen wie Wwise oder FMOD gut auskenne, konnte ich das Wissen für das Jaguar-Projekt heranziehen. Ich habe eine Fahrzeugsimulation in FMOD angelegt, um herauszufinden, wie zum Beispiel Beschleunigung und Bremsen oder mehr Gewicht durch mehr Mitfahrer den Sound ndern würde, eben all die verschiedenen Faktoren, über die man nachdenken und die man mit einberechnen muss.

Anschließend habe ich einen Synthesizer in Reaktor gebaut, mit dem ich Samples und Synthese gleichzeitig verwenden konnte. Sie wollten einen futuristischen Sound für das Auto und haben mir als Referenz Beispiele von den Podracers aus Stars Wars und Sounds aus Tron geschickt, sehr cooles Zeug. Aber es war ihnen auch sehr wichtig, kompatibel mit der Marke zu bleiben. Das stellte sich als sehr kompliziert heraus, denn der eigentliche Grund, weshalb wir überhaupt einen Sound für das Auto designen mussten, war ein neues Gesetz, das in England verabschiedet wurde: Alle elektrischen Autos müssen seitdem einen Sound wiedergeben, damit man sie auf der Straße auch hört. Denn wenn man nicht aufpasst, bemerkt man solche Autos nicht.

Ja, das kann sehr gefährlich sein.

Genau deswegen gelten jetzt sehr spezifische Richtlinien. Der Sound muss eine bestimmte Lautstärke haben, in einem bestimmten Frequenzbereich sitzen, in einer bestimmten Entfernung noch zu hören sein, auch wenn der Umgebungslärm laut sein sollte, und so weiter. Außerdem gab es einen Sound für den Innenbereich und einen für den Außenbereich, denn die Lautsprecher außen sind andere als die, die man für den Innenbereich verwendet. Es war ein ziemlich stressiger Job.

Ja, mit so vielen Kriterien, die man erfüllen muss – Wahnsinn. Aber du hast es offensichtlich gemeistert! Jetzt muss ich mir nur noch einen Jaguar leisten können, um mir deine Sounds anhören zu können. (lacht)

Ich habe auch all die Sounds der Benutzeroberfläche, des Navigationssystems, des Touchscreen und sogar die Sounds der Blinker designed. Die habe ich mit der FM-Einheit des Yamaha Montage FMX gebaut. Das ist ein sehr mächtiger Synthesizer, mit dem man außergewöhnliche, sehr teuer klingende, cleane Sounds designen kann. Er war perfekt für den Job.

Dann habe ich noch das Kyma System von Symbolic Sound verwendet. Ich habe die Motorengeräusche der letzten Jaguar-Modelle aufgenommen und analysiert, um herauszufinden, wo die Gemeinsamkeiten im Sound liegen. Die Aufnahmen habe ich dann in Kyma resynthetisiert. So war ein Teil des Sounds in der Vergangenheit verankert, und der andere Teil konnte futuristisch klingen.

Wow, sehr beeindruckend. Man merkt schnell, dass du dich gerne eingehend mit deinen Tools auseinandersetzt. Das hört man auch deinem letzten Album an. Ich habe gelesen, dass du dafür dein modulares System verwendet hast und dass es lange gedauert hat, bis du deine Cases dafür konfiguriert hattest.

Ja, das stimmt. 2016 hatte ich mir das Ziel gesetzt, mir ein Setup aus meinen Modular-Cases zusammenzustellen, mit dem ich jeden Abend relativ schnell und effektiv komponieren kann, mit dem ich Ideen ausprobieren und ausarbeiten kann. Ich fing an zu recherchieren und verbrachte Monate damit, die Cases zusammenzustellen. Zwei Cases habe ich speziell für die Erzeugung von Rhythmen ausgelegt, zwei weitere sind für Melodien zuständig. Dabei hat jedes Case seine eigenen Sequenzer, damit ich sie alle über eine gemeinsame Clock syncen kann.

Ich habe letztendlich fünf bis sechs Cases für mein letztes Album benutzt, aber man hat nicht immer notwendigerweise alle Cases gleichzeitig gehört. So konnte ich Tracks komponieren, die dasselbe Tempo haben, aber konnte bestimmen, wie der Track sich über die Zeit verändert, damit es nicht zu statisch klingt. Jedes Case hatte eine andere Rolle inne und spielte verschiedene Parts in den Songs.

Normalerweise habe ich mehrere Patches gleichzeitig laufen, im Moment sind es ungefähr fünf. Ich arbeite immer an verschiedene Ideen gleichzeitig, bis ich etwas Cooles habe, das ich ausarbeiten will. Dann patche ich ein oder zwei Cases dazu und mache daraus einen kompletten Song, den ich aufnehme.

Hast du das Album komplett im Case gemischt oder in deiner DAW?

Ich habe zwei O16-Module von NW2S mit jeweils 16 Eingängen und Ausgängen, die man dann mit einem DB-25-Kabel abgreifen kann. So habe ich jedes Signal einzeln zur Verfügung und kann sie in meine zwei Apollo-x16-Interfaces schicken, die auch DB-25-Anschlüsse besitzen. Ich trenne so viele Signale wie nur möglich und mische sie dann im Rechner, um mehr Klarheit im Mix zu bekommen.

Ich bin auch sehr wählerisch, was Reverbs anbelangt. Die Stems von meinem Mix schicke ich anschließend durch meine Analog-Summierer von Dangerous Music und dann weiter zu meinen Outboard-EQs und Kompressoren. Neuerdings benutze ich dafür das Flock Audio Patch-System, das war ein echter Gamechanger für mich. Es ist eine analoge Patchbay, die man per Software steuern kann. Damit kann ich mein Hardware-Equipment digital routen; es ist fast so, als würde man mit Plug-ins arbeiten … Wahnsinn!

Zum Schluss würde ich dir gerne noch ein paar Fragen von der Community stellen. Was sind zum Beispiel fünf Module, die du auf eine Insel mitnehmen würdest?

Das erste Modul, das ich mitnehmen würde, ist das ER-301, man kann damit richtig interessante und außergewöhnliche Sachen machen. Und ich liebe das Konzept, sich innerhalb des Moduls eigene Patches bauen zu können und zu entscheiden, wie die Steuerspannungen und Gates miteinander interagieren. Ich mag auch die Sampling-Möglichkeiten, vor allem den Granular-Sampler benutze ich sehr gerne und mache jede Menge glitchy Drumsounds damit. Man könnte sogar eine komplette Show mit dem Modul fahren.

Ein weiterer Favorit ist der Vector Sequenzer von Five12, mit dem ich gerne meine Drums sequence. Die Zufalls- und Wahrscheinlichkeitsfunktionen sind fantastisch – es ist unglaublich, was man rhythmisch damit alles machen kann.

Ich forsche gerade auch noch nach anderen Wegen, um meinen Modular zu sequencen, mit Javascript zum Beispiel oder TidalCycles vom Rechner aus. Ich möchte mehr in Richtung generative KI-Musik gehen und mir dafür eine Engine in Max bauen, damit sie mir Sequenzen mit vielen verschiedenen Permutationen generiert. Machine Learning fasziniert mich sehr. Ich würde es auch gerne mit meinem Modularsystem kombinieren, als Hybridsystem. Das finde ich gerade sehr spannend und suche nach Möglichkeiten, um Musik auf eine neue Art und Weise zu komponieren.

Das führt mich auch gleich zu meiner nächsten Frage: Wo siehst du die Musiktechnologie in circa 50 Jahren?

Ich hätte gerne etwas, das man direkt ans Gehirn anschließen kann; etwas, womit man seine Ideen vollständig umsetzen kann und nicht wie jetzt nur zu einem Prozentsatz. Vielleicht gibt es so etwas ja in 50 Jahren, dann kann man all sein Equipment im Studio verkaufen. Eigentlich braucht man auch gar nicht so viele Geräte, um Musik zu machen, das sind im Grunde alles nur Werkzeuge. Eigentlich bräuchte ich auf der Insel auch nur einen Computer, eine Maus und Kopfhörer (lacht). Das ist das mächtigste Werkzeug, das es zurzeit gibt.

Du hattest in unserem Vorgespräch erwähnt, dass du oft gefragt wirst, was du einem modularen Neueinsteiger empfehlen würdest.

Ja genau, das ist die meistgestellte Frage auf Instagram oder auch von Freunden. Viele wollen sich kein System zusammenstellen, sondern lieber mit einem vorkonfigurierten System anfangen, damit sie erstmal das grundlegende Konzept lernen können. Genau so habe ich damals auch angefangen, als ich die Grundlagen an meinem ARP2600 gelernt habe, der ja auch feste Module hat. Ich glaube, das ist für den Anfang eine gute Herangehensweise.

Ein System, das ich im Speziellen empfehlen kann, ist das Make Noise Shared System. Es gibt noch andere gute Systeme, aber ich denke Tonys System ist super für den Anfang, da es genau die richtige Kombination an Modulen beherbergt. Man kann damit Synthese erlernen, Sampling, Modulation, Amplituden- und Frequenzmodulation oder auch komplexere Dinge. Make Noise hat auch einen sehr aktiven You-Tube- und Instagram-Kanal, auf dem sie alles erklären und sich viele neue, interessante Ideen einfallen lassen.

Das ist ein guter Tipp, ich bin selbst ein großer Fan von Make Noise und kann ihre Module nur empfehlen.

Vielen Dank für deine Zeit und die interessanten Einblicke in deine Arbeit!

Gerne, danke für die Einladung!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.