Electronic Music Guide:

Übersicht der elektronischen Musik.

-Link


Elektronische Musikproduktion:

Sehr stark verbreitet bei Ambient, Drum & Bass, Dubstep, Electro, Experimentell / Clicks & Cuts, House, EDM/Electronica, Techno, Minimal Techno, Trance oder Trip Hop.

-Elektronische Musikproduktion


Filtertypen (Equalizer):

Peak:
Dieser Typ kann eine bestimmte Frequenz anheben oder absenken.

Shelf high oder low:

Mit diesem EQ können Frequenzen ab der eingestellten Kennfrequenz angehoben bzw. abgesenkt werden.  

Notch:

Herausschneiden von Frequenzen.


Frequensspektrum:

Zeigt das hörbare Frequenzspektrum auf.

Es müssen in einem Mix nicht alle Frequenzen eines Instruments in natürlicher Stärke vorhanden sein. Manche sind für ein funktionieren im Song wichtig, andere nicht, und diese können wir für eine bessere Transparenz und zur Vermeidung gegenseitiger Verdeckung absenken. 

https://www.youtube.com/watch?v=qNf9nzvnd1k


Hall:

Nachhallzeiten:

<0.5 sec: Sprachkabine

0.7 sec: Kabarett

0.7 - 1.2 sec: Schauspiel

1 sec: Kammermusik

1.3 - 1.6 sec: Oper

1.7 - 2 sec: Konzert

Y 2 sec: Kirche


Monokompatibilität:

Normalerweise hast Du das betreffende Instrument zwei Mal und drehst die eine Spur zu 100% nach links und die andere zu 100% nach rechts.

Bei solch einen extremen Panning kann es schonmal zu Problemen bei der Monokompatibilität kommen. Das bedeutet, dass manche Instrumente beim Abhören der Abmischung in mono lauter oder aber leiser als in stereo sein können. Dies wird der Summierung von linker und rechter Spur geschuldet. In seltenen Fällen können einzelne Instrumente fast komplett in Mono verschwinden.

Der eigentliche Trick liegt darin, häufig zwischen stereo und mono hin- und herzuschalten und dabei darauf zu achten, dass sich die Balance der Abmischung nicht ändert. Was bei Stereo auf die gesamte Breite verteilt ist, sollte in mono in der Mitte gleich klingen. Hierbei kannst Du gleichzeitig darauf achten, wie tieffrequente Instrumente wie der Bass einen direkten Einfluss auf den Klang der darüber liegenden Instrumente hat.


Percussion:

Ist der Oberbegriff für das Spiel aller Musikinstrumente aus dem Bereich der Schlag- und Effektinstrumente.

  • Bassdrum/Kick/Kickdrum: Die Große Trommel oder Bass Drum (bass drum oder auch kick drum) ist ein Schlaginstrument, das als Bestandteil des Schlagzeugs für die Erzeugung von tiefen Klängen verwendet wird.
  • Becken (Cymbal): bezeichnet die leicht konvexe, meist aus Bronzelegierungenbestehende Scheiben, die entweder paarweise gegeneinander geschlagen (Tschinellen) oder, auf einem Ständer montiert, mit Holz- oder Garnschlägelnangeschlagen werden.
  • Bongos: sind paarweise verwendete, kleine Einfelltrommeln, die mit Fingern oder Händen geschlagen werden. Sie stammen aus Kuba.
  • Conga: Ist eine einfellige Fasstrommel afrikanischen Ursprungs, die in Kuba entwickelt wurde und besonders in der Tanzmusik weit verbreitet ist.
  • Hi-Hat: Ist ein Teil eines Schlagzeugs. Unterschieden wird zwischen der Open (geöffneten) und der Closed (geschlossenen) Hi-Hat.
  • Timbales: kubanisches Trommelpaar

Übersicht aller Perkussionsinstrumente


Phasenverschiebung / Phasenauslöschung:

Die einfachste Form einer Welle ist eine Sinuswelle. Wenn Du zwei identische übereinanderlegst, dann addieren sich die Werte des Wellenauschlags zu jedem Zeitpunkt. Wenn Die Wellen direkt übereinander liegen, dann wird das Signal einfach doppelt so laut (kann man sich auch aufmalen: Zwei Sinuswellendirekt übereinander, Du addierst zu jedem Zeitpunkt beide Werte, dein Ergebnis wird eine Welle mit doppelt so hoher Amplitude sein). 

Wenn man aber nun eine der beiden etwas nach links oder rechts verschiebt, wird sich das ändern. Im Extremfall ist die eine Welle um genau eine halbe Wellenlänge (oder vielfachen davon) verschoben. Dann liegen zwar die Nullpunkte an den gleichen Stellen, aber wo Welle A eine Spitze hat, da hat Welle B ein Tal. Wenn Du nun beide addierst (die Vorzichen natürlich auch beachten), dann wirst Du am Ende logischerweise ein Nullline haben.

Das kannst Du z.B. in Audacaity mal simulieren. Da kann man Sinustöne erzeugen. Die legst Du dann auf wei Spuren. Wenn Du die eine nach link oder rechts (natülrich nur ein bisschen, musst halt so weit reinzoomen, dass man die Wellen sieht), wirst du hören, dass der Ton leiser oder lauter wird. Wenn Du genau um eine halbe Wellenlänge verschiebst, dann hörst Du gar nichts mehr.

Diese Verschiebung zwischen zwei Wellen nennt man Phasenverschiebung (die Phase einer Schwingung gibt man dabei in Grad an, 180° ist die Verschiebung, wo sich alles auslöscht (Phasenauslöschung).

Wenn Du nun mit zwei Mikros arbeitest, die nicht exkat den gleichen abstand zur Box haben, kommt das Signal beim einen Mikrofon später an. Die beiden Signale sind somit zueinander Phasenverschoben. Allerdings wird da nicht der Fall eintreten, dass es einfach lauter, leiser, oder ganz stumm wird, da das ja immer nur für eine Frequenz klappt.

Eine Gitarre oder alle anderen Instrumente auch geben aber nicht einen Sinuston mit einer bestimmten Frequenz ab, sondern ein Gemisch aus dem Grundton und vielen Obertönen. Auslöschen können sich nun bestimmte Frequenzen, so dass sich eben der Klang ändert. Dann kannst Du auch mal selber in einer Software testen, wenn Du mal die E-Gitarrenaufnahmespur eines Mikrofons nimmst, diese duplizierst, und dann eine von beiden minimal verschiebst. 

Wenn man tatsächlich mit zwei MIkrofone arbeitet ist das aber noch komplexer, da ja auch die Mikros unterschiedliche sind, anders stehen etc., du erhälst also nicht zwei identische Signale, die nur phasenverschoben sind.


Synthesizer (Software oder Hardware):

Die Rechner leisten heutzutage unglaubliches, und da werden die Softsynthies natürlich immer fetter, und sie sind zudem flexibler einsetzbar und sind direkt im System integriert.

Es gibt allerdings auch Hardware-Synthesizer, die einfach noch nicht durch Software ersetzt/emuliert werden kann. Die klingen dann einfach anders aber auch nicht schlechter sondern eben etwas anders aber wer versucht schon ein Klang eines Hardware-Synth exakt in einen Software-Synth nachzubauen. Und da fängt dann die Philosophie nun an und ist dann ungefähr vergleichbar mit der Diskussion "PC vs. Mac" oder "Cubase vs. Logic" oder "Word vs. Pages" - was ist wirklich besser.

-Synthsis lernen


Töne:

Töne sind Schallereignisse. Der Schall ist eine periodische Folge von Verdichtungen der Luft. Dabei bewegen sich die Luftmoleküle parallel zur Ausbreitungsrichtung der Schallwelle hin und her und geben dabei ihre Energie nach außen an die Nachbarmoleküle weiter. 

Die Frequenz der Schallwelle bestimmt die Tonhöhe, die Amplitude bestimmt ihre Lautstärke (Intensität) und die Wellenform bestimmt ihre Klangfarbe. 

Töne - Obertöne (Klangfarbe):

Jeder Ton, jeder Klang besteht aus einem Grundton und einer Reihe von Obertönen, die über dem Grundton aufgebaut sind und die Klangfarbe bestimmen. Die Frequenzen der Obertöne entsprechen ganzzahligen Vielfachen der Grundton-Frequenz. 

Aufgrund der Klangfarbe können wir erkennen, von welchem Instrument, Gerät oder welcher Stimme der Ton stammt. Da jeder Mensch sein eigenes charakteristisches Obertonspektrum hat, können wir verschiedene gesprochene oder gesungene Stimmen überhaupt erst unterscheiden. 

Zu beachten ist, dass der Begriff 'Obertöne' die Schwingung der Grundfrequenz nicht mit einschließt.

Für ein tiefes A mit 55 Hz können wir Obertöne bei 110 Hz, 220 Hz, 440 Hz und so weiter hören. Auf dem Küchenradio mögen die Frequenzen unterhalb von 200 Hz nicht mehr hörbar sein, nicht aber so die Obertöne darüber.

Weitere Informationen


Teile diese Seite auf: