Sprach- und Gesangaufnahmen optimieren

Dezember 19, 2016 | Tutorial

Hier zeigen wir euch, wie ihr schlecht aufgenommene Stimmen mit der EQ+ Serie im Handumdrehen verbessern könnt.

Oft ist in der Ausnahmesituation nicht genügend Zeit, Stimmen perfekt aufzunehmen oder mehrere Takes durchzuführen. Die EQ+ Serie beinhaltet viele Möglichkeiten, auch im Nachhinein gesungene wie auch gesprochene Stimmen nachhaltig zu verbessern.

smart:EQ+ beinhaltet eine sehr praktische „speech“ Einstellung, die den smart-Algorithmus für Stimmen optimiert. In diesem Beispiel wird zuerst ein Low Cut eingestellt. Das restliche Spektrum optimiert das smart-Band vollautomatisch.

proximity:EQ+ funktioniert wie ein akustischer Zoom. Man kann die Klangquelle näher an sich „heranziehen“, wenn das Mikrofon bei der Aufnahme zu weit weg war.

Schließlich verbessert entropy:EQ+ die Sprachverständlichkeit, indem es die geräuschhaften Anteile, hier Konsonanten, hervorhebt. Gerade die Konsonanten spielen nämlich eine wichtige Rolle, wenn das menschliche Gehirn Sprache verarbeitet.

How to improve speech and voice recordings with entropy:EQ+Die EQ+ Serie ist nicht nur ein großartiges Werkzeug fürs Mischen, sondern spielt seine Vorteile besonders bei der Sprachbearbeitung aus. Zur Demonstration haben wir eine Test-Aufnahme erstellt, die wir in Folge aufpolieren und besser verständlich machen wollen. Für diese Aufnahme haben wir ein rode videomic go verwendet, das mit einem zoom H4n verbunden war. Der Sprecher steht ungefähr sechs Meter vom Mikrofon entfernt. Die ursprüngliche Aufnahme könnt ihr bei Minute 0:40 im Video anhören.

Ein paar unerwünschte Dinge treten hier auf. Wir haben absichtlich nicht das allerbeste Mikrofon verwendet, damit wir euch das volle Potenzial vom selbstlernenden smart:EQzeigen können. Zuerst aktivieren wir dazu den speech mode und setzen eine einfachen low cut. Danach nehmen wir ein ziemlich breites, über praktisch das gesamte Spektrum gezogenes smart:band und lassen es lernen. Der Klang wird sofort um vieles besser.

Als nächstes nehmen wir proximity:EQ+, um lästige Rauminformation auszuschalten. Dazu nehmen wir das proximity:band und heben es in einem mittleren Frequenzbereich ungefähr auf 75% an. Der größte Teil des Nachhalls wird so entfernt, ohne dabei den Klang zu sehr zu beeinflussen.

Am Ende kommt noch eine Instanz entropy:EQ+ oben drauf. Mit drei entropy Bänder verstärken wir an bestimmten Stellen die atonalen Anteile der Sprachaufnahme. In diesem Fall genau dort, wo die Konsonanten ihren Mittelpunkt haben. Das erhöht die Sprachverständlichkeit um vieles, weil unsere Wahrnehmung sich bei der Verarbeitung von Sprache sehr auf Konsonanten verlässt.

Am Ende heben wir noch die Tiefen bei ungefähr 200 Hz an. Und zwar mit dem herkömmlichen linear-phasigen EQ, den entropy:EQ+ beinhaltet. Alle hier beschriebenen Schritte können auch mit frei:raum umgesetzt werden.