chevron_left
Zurück zu "Audio-KnowHow > lies_mich_zuerst.txt"
Weiter zu "Audio-KnowHow > Voice-Over"
chevron_rightAudio-Bearbeitung
Es gibt unzählige Aspekte, wenn es darum geht, Audio-Aufnahmen aufzuwerten. Dabei kommt es vor allem darauf an, um welche Art von Aufnahme es sich handelt - bei gesprochenen Aufnahmen kann durchaus eine völlig andere Palette an zu verwendenden Funktionen zum Einsatz kommen als etwa bei den einzelnen Kanälen eines Musikstücks.
Die Optimierung von musikbezogenen Aufnahmen mache ich nunmehr seit 1998, wobei ich die ersten 15 Jahre davon praktisch ausschließlich nach Gehör gearbeitet habe. Seit meinem Kauf der Bezahlversion von WavePad greife ich verstärkt auf die Frequenzanalyse zurück, was den Gesamtaufwand doch um einiges reduziert. Beispielsweise nutze ich auch manche alten Instrument-Samples in meiner Musik, die damals mit einem verhältnismäßig starken Rauschen aufgenommen wurden. Durch die Frequenzanalyse konnte ich das präzise Rauschen nachstellen und hatte dadurch genug pures Rauschen, um es aus den Instrument-Samples vollständig herauszufiltern.
Sobald es jedoch um die Bearbeitung von gesprochenen Aufnahmen geht, kommen andere Methoden zum Einsatz. Die meisten Mikrofone, sogar die im hohen Preisrahmen, nehmen ein Hintergrundrauschen mit auf - hier sei jedoch erwähnt, dass das in den meisten Fällen an der Umgebung und nicht an den Mikrofonen liegt. Dennoch gibt es seit langem bereits Technologien, um so etwas in Echtzeit qualitativ hochwertig herauszufiltern. Wenn so etwas bei einer Aufnahme NICHT der Fall ist, muss das Rauschen in der Nachbearbeitung entfernt werden, also z.B. mit Hilfe von WavePad. Hier ist es zunächst wichtig, dass das Rauschen die gesamte Aufnahme über konstant ist und nicht durch ein Noise-Gate ständig die Rauschlautstärke ändert. Sobald man dann einige Sekunden an purem Rauschen in der Aufnahme zusammenbekommt, kann man das nutzen, um die gesamte Aufnahme vom Rauschen zu befreien. Übrig bleibt dann je nach verwendetem Mikrofon manchmal ein digitales Blubbern, welches man über das "Multi-band noise gating" von WavePad hervorragend entfernen kann.
Hinzu kommt, dass viele Mikrofone die Frequenzen von Stimmen verfälschen - somit ist es also fast immer sinnvoll, per Equalizer Anpassungen vorzunehmen. Die konkret optimalen Equalizer-Einstellungen hängen jedoch von der jeweiligen Stimme ab und können massiv variieren, weshalb ich hier kein pauschales Rezept beschreiben kann. Aber bei tiefen Stimmen ist es beispielsweise oft sinnvoll, die Frequenzbereiche unter 100 Hz stark abzuschwächen. Außer es handelt sich um Gesang in einem Musik-Genre, das auf tiefe Stimmfrequenzen angewiesen ist - dann wäre diese Abschwächung vollkommen kontraproduktiv.
Bei rein gesprochenen Aufnahmen - z.B. für Erklärungen, Vlogs und mehr - liegt der Fokus hingegen bei dem Entfernen unnötiger Segmente wie etwa Pausen, Husten, zu starke Atemgeräusche und so weiter. Teilweise kommt es dann zu plötzlichen Schwankungen der Lautstärke bei den Bereichen, in denen so etwas entfernt wurde. Hier können dann FadeOut-FadeIn-Übergänge sinnvoll sein.
Das alles waren nur sehr wenige Beispiele, verglichen mit dem Potential, das man beim Bearbeiten von Audio-Aufnahmen wirklich hat. Ich kann nur dazu raten, sich die Funktionsvielfalt von WavePad und Audacity einmal genauer anzuschauen.
Die Optimierung von musikbezogenen Aufnahmen mache ich nunmehr seit 1998, wobei ich die ersten 15 Jahre davon praktisch ausschließlich nach Gehör gearbeitet habe. Seit meinem Kauf der Bezahlversion von WavePad greife ich verstärkt auf die Frequenzanalyse zurück, was den Gesamtaufwand doch um einiges reduziert. Beispielsweise nutze ich auch manche alten Instrument-Samples in meiner Musik, die damals mit einem verhältnismäßig starken Rauschen aufgenommen wurden. Durch die Frequenzanalyse konnte ich das präzise Rauschen nachstellen und hatte dadurch genug pures Rauschen, um es aus den Instrument-Samples vollständig herauszufiltern.
Sobald es jedoch um die Bearbeitung von gesprochenen Aufnahmen geht, kommen andere Methoden zum Einsatz. Die meisten Mikrofone, sogar die im hohen Preisrahmen, nehmen ein Hintergrundrauschen mit auf - hier sei jedoch erwähnt, dass das in den meisten Fällen an der Umgebung und nicht an den Mikrofonen liegt. Dennoch gibt es seit langem bereits Technologien, um so etwas in Echtzeit qualitativ hochwertig herauszufiltern. Wenn so etwas bei einer Aufnahme NICHT der Fall ist, muss das Rauschen in der Nachbearbeitung entfernt werden, also z.B. mit Hilfe von WavePad. Hier ist es zunächst wichtig, dass das Rauschen die gesamte Aufnahme über konstant ist und nicht durch ein Noise-Gate ständig die Rauschlautstärke ändert. Sobald man dann einige Sekunden an purem Rauschen in der Aufnahme zusammenbekommt, kann man das nutzen, um die gesamte Aufnahme vom Rauschen zu befreien. Übrig bleibt dann je nach verwendetem Mikrofon manchmal ein digitales Blubbern, welches man über das "Multi-band noise gating" von WavePad hervorragend entfernen kann.
Hinzu kommt, dass viele Mikrofone die Frequenzen von Stimmen verfälschen - somit ist es also fast immer sinnvoll, per Equalizer Anpassungen vorzunehmen. Die konkret optimalen Equalizer-Einstellungen hängen jedoch von der jeweiligen Stimme ab und können massiv variieren, weshalb ich hier kein pauschales Rezept beschreiben kann. Aber bei tiefen Stimmen ist es beispielsweise oft sinnvoll, die Frequenzbereiche unter 100 Hz stark abzuschwächen. Außer es handelt sich um Gesang in einem Musik-Genre, das auf tiefe Stimmfrequenzen angewiesen ist - dann wäre diese Abschwächung vollkommen kontraproduktiv.
Bei rein gesprochenen Aufnahmen - z.B. für Erklärungen, Vlogs und mehr - liegt der Fokus hingegen bei dem Entfernen unnötiger Segmente wie etwa Pausen, Husten, zu starke Atemgeräusche und so weiter. Teilweise kommt es dann zu plötzlichen Schwankungen der Lautstärke bei den Bereichen, in denen so etwas entfernt wurde. Hier können dann FadeOut-FadeIn-Übergänge sinnvoll sein.
Das alles waren nur sehr wenige Beispiele, verglichen mit dem Potential, das man beim Bearbeiten von Audio-Aufnahmen wirklich hat. Ich kann nur dazu raten, sich die Funktionsvielfalt von WavePad und Audacity einmal genauer anzuschauen.