Archiv des Autors: Dr. Sound

Sprecher*innen-Stimmen

In diesem Video führt der Reaper Maniac Kenny Gioia in aller Kürze ein Sound Design für Sprecher*innen-Stimmen vor. Die genutzten Plugins (Cockos und JS) sind:

  • ReaFir (Noise Reduction)
  • ReaEQ (Highpass, High Frequencies)
  • ReaXcomp (Multi Compressor)
  • JS: De-esser (De-Esser)
  • ReaLimit (Limiter)

Die Plugins erklärt er im Einzelnen in den folgenden Videos.

Compressor

In diesem Video erklärt Kenny Gioia Dynamic Range Compression anhand des Plugins JS: General Dynamics:

Noise Reduction

In diesem Video führt Kenny Gioia Spectral Substraction mit dem Plugin ReaFIR vor, um Hintergrundrauschen zu entfernen:

Limiter

Noise Gate

automatisches Schneiden

Clicks & Pops

Mit Highpass-Filter

mit Slicing

Ambisonics Recording

ZOOM H3-VR

Anleitung, Video-Tutorials, Downloads

Der H3-VR Recorder (360° VR Handy Recorder) von ZOOM ist Ambisonics-Mic (1st Order) und Audio-Recorder in einem und lässt sich mit der zugehörigen iOS-App H3 Control steuern. Die Aufnahmen können u.a. im AmbiX B-Format ausgegeben werden und das Headphone-Monitoring kann binaural decodiert angehört werden.

ZOOM F8N Pro

Anleitung, Video-Tutorials, Downloads

ZOOM F6

Anleitung, Video-Tutorials, Downloads

Dragon Crystal

von Alan Fabian

Im WiSe 2024/25 habe ich in der Lehrveranstaltung Medienprojekt: Konzept ein Setting für ein 4D Sound-Game im Tonstudio zusammen mit den Studierenden bespielt. Das Spiel habe ich als ein Open-World-Game konzipiert, in dem eine Spielperson von einem Performance-›Klangtheater-Ensemble‹ interaktiv ›bespielt‹ wird.

Ambisonics Mikrofonie live mit Kopfhörer-Headtracking

In der Tonregie war ein 3D Audio Ambisonics-Mikrofon (Røde NT-SF1 1st Order) über ein Audiointerface (Steinberg AXR4) mit der DAW Reaper verkabelt, in der mittels Ambisonics-Decoder (Røde Soundfield, IEM Plugin-Suite) das vierkanalige Audiosignal in Echtzeit in ein AmbiX B-Format und dann in ein binaurales Stereo-Signal decodiert wurde. Dieses 3D-Stereo-Signal wurde aus Reaper heraus über Bluetooth an einen bluetoothfähigen Headtracking-Kopfhörer gesendet (Apple AirPodMax). Die Headtracking-Daten des Kopfhörers (X,Y,Z Rotationsachsen) wurden über eine Software (Headitude) gesendet und von da aus über OSC in Reaper an ein 3D-Head-Rotation Plug-in (IEM Plug-in Suite).

Mit diesem audiotechnischen Setting war es möglich das Ambisonics-Mikrofon in der Tonregie zu bespielen und im damit verbundenen Kopfhörer nicht nur im binauralen 3D Stereo zu erhören, sondern auch sich im 3D Audiofeld mit Kopfbewegungen ›umzuhören‹: ein interaktives 3D Audio-Monitoring war aufgesetzt.

Sensorgesteuerte Atmo

Zusätzlich zu dieser 3D Audio-Mikrofon-Spur waren Atmo-Spuren aufgesetzt, deren Luatstärke sowie Halleffekte (Reverb-Plug-in) mittels interaktiver Apps (MiMU Gliss mit der Software MiMU Glover) mit Handbewegungen auf iPhones vom Soundtheater-Ensemble geregelt werden konnten.

Live Foley-Sounds

Im Aufnahmestudio-Raum war ein Foley-Setup aufgebaut mit einem mikrofonierten Spielfeld bestehend aus zwei Laufuntergründe für Schritte-Geräusche (trockene Blätter und Schotter) Wasserbehältern (am Boden und auf dem Tisch) und einer Sitzgelegenheit (mit einem Fußabtreter).

Die Foley-Mikrofone wurden in Reaper in einzelne Audiospuren kanalisiert, in denen für die Wasserbehälter-Mikrofone mittels Ambisonics-Encoder (IEM Plug-in Suite) die Anordnung der Wasserbehälter im Raum im 3D-Audiofeld positioniert und auf die Spieler*innen-Kopfhörer gesendet wurden.

Sound-Theater-Ensemble und Spieler*in

Der Gesamt-Mix bestehend aus Ambisonics-Mikrofon, Atmo und Foley-Echtzeit-Sounds wurde auf die Monitoring-Kopfhörer des Sound-Theater-Ensembles kanalisiert.

Gemäß eines Skripts mit allen nötigen Text-, Klang und Regie-Anweisungen für live Foley-SoundFX (z.B. Fluggeräusche mit einer Jacke) hat dann das Sound-Theater-Ensemble vom Tonregieraum den*die Spieler*in im Aufnahmestudio-Raum mittels 3D-Echtzeit-Mikrofonie interaktiv bespielt. Der*die Spieler*in hat sich dabei in einem virtuellen 3D-Audioraum (auf der Stelle) bewegt. Dabei haben die Handlungen auf dem Foley-Spielfeld das 3D-Klangerlebnis um eine vierte Dimension (4D) aufgrund der Haptik (ins Wasser Greifen, auf Untergründen laufen, die Fußmatte erfühlen) erweitert.

Klangaufgaben

In der Spielszene sind von dem*der Spieler*in verschiedene Klangaufgaben zu bewältigen, die dem Spielziel näher führen:

Skript

Stadtklang: Bayreuth

von Finja Otremba

Im SoSe 2025 hat Finja Otremba ihr Medienprojekt-Konzept aus dem WiSe 2024/25 realisiert und in der Abschlusspräsentation im Tonstudio im Medialab präsentiert: Ein Sound Game in 3D Spatial Audio und 360°-Streetview.

Finja hat dafür ein Games-Framework in Godot programmiert, das es ermöglicht 360°-Ambisonics-Aufnamhmen (3D Audio/Foto) zu importieren und interaktiv erlebbar zu machen: der*die Spieler*in navigiert auditiv in 360° an Standorten in Bayreuth und ordnet diese dann in einer Bayreuth-Map zu. Der*die Spieler*in muss sich dabei ausschließlich nur auf das Gehörte fokussieren, das Hörwahrnehmungsgedächtnis wird befragt.

Die audiovisuellen 360°-Aufnahmen hat die Spielentwicklerin mit einem Zoom H3 VR und einer Insta360 X5 Kamera in Bayreuth gemacht, wie zum Beispiel im Ökologisch-Botanischen Garten am Bienenhaus.

Bienenhaus im Ökologisch-Botanischen Garten Bayreuth und Zoom H3 VR mit Inst360 X5
Das Bienenhaus im Ökologisch-Botanischen Garten Bayreuth in der Spieleentwicklungsansicht in Godot

Weitere Aufnahmeorte waren der Canale Grande, die Stadtkirche, das Stadtparkett, das Campus Rondell der Uni, der Sonnentempel im Hofgarten, der Tierpark am Röhrensee und eine Eisenbahnbrücke.

Das Spiel startet mit dem Abspielen der Audio-Aufnahme eines zufällig ausgewählten Ortes. Je nach Schwierigkeitsgrad ist ein Zeitlimit vorgegeben, in dem sich die Spieler*innen an allen zur Auswahl stehenden Orte auf einer Google-Map in einem interaktiven 360°-View während dem Hören ›umsehen‹ können.

Die Spieler*innen bewegen sich dabei nicht nur visuell im 360°-View, sondern auch in der 360°-Audioaufnahme, so dass sie sich im Wortsinne ›umhören‹ können an diesem Klangort. Wenn die Auswahl richtig ist, also der Klang zum Ort passt, dann gibt es dafür Punkte und es geht weiter zum nächsten zufällig ausgewählten Ort mit einer Audioaufnahme, die nicht zum Bild passt.

Wenn alle Audioaufnahmen zugeordnet sind, ist das Spiel zu Ende und die Spieler*innen können sich in einen Highscore eintragen.

Bei der Mediennacht 2025 im Cineplex Bayreuth ist dieses Sound Game spielbar.

Quietschbunter Live-Podcast

Das Seminar All about Sound im SoSe 2025 haben wir mit einem live improvisierten Live-Podcast live abgeschlossen. Dazu haben wir den Podcast-Tisch des Tonstudios in das A/V-Studio gerollt, quitschbunt eingeleuchtet, den Audio-Ausgang des Rødecaster Pro II über ein Mackie-Mischpult auf Lautsprecher vor einer Wand aus Akustik-Quadern live übertragen und das Ganze auch noch visuell mittels Live-Videokamera auf den Bildschirm im Auditorium.

Nach Art des Laber-Podcasts haben die Teilnehmer*innen des Seminars All about Sound dann jeweils in Vierergruppen über die Inhalte der Lehrveranstaltung ›gelabert‹, wie z.B. Listening Modes, Soundscape & Soundwalk, Funktionale Klänge, Sonification, ASMR, Sounddesign, Laber, Laber, Laber…

Dabei hat ein*e Teilnehmer*in die Moderation übernommen und mit drei ›Expert*innen‹ klangwissenschaftliche Kategorien und Klassifizierungen von Klang und Hören erörtert.

Das hat uns allen Spaß gemacht, oder?

Soundgardens

Gärten sind ›unnatürliche‹ (nicht vom Wind angepflanzte) Ansammlungen von Pflanzen verschiedenster Standorte und versuchen ›natürlich‹ (wie vom Wind angepflanzt) auszusehen, nach sogenannter ›Natur‹. Soundscapes aus zusammengesammelten und dann angesammelten Field-Recordings ›naturhafter‹ (naturbehafteter) Klänge können demgemäß als ›Klanggärten‹ gehört werden, Ansammlungen von Aufnahmen, Wort-geschöpft: Soundgardens.

Setzen wir uns also mit aufgesetzten Kopfhörern (aufgrund des binauralen Stereoformats zur Widergabe in 3D-Audio) in diese Klanggärten und hören uns an, was die Field-Recordists für unsere Ohren Klang-gegärnert haben.

Wulmersreuth Soundscapes

von Aaron Wettengel

Ein Tag auf dem Pferdehof in Wulmersreuth (binaurales Rendering, mit Kopfhörern anzuhören)

Die Hörer*innen dieses Soundscape-Narrativs erleben auditiv einen ganzen Tag lang, von Sonnenaufgang bis Sonnenuntergang in Echt(aufnahme)zeit die Klangwelt eines Pferdehofs auf dem Land in 3D-Audio (Ambisonics 1st Order) – in der Originalversion. Diese Version hier fasst diesen Klangtag in 20 Minuten zusammen.

Dazu fährt uns der Field-Recordist Aaron Wettengel zusammen mit seinem Field-Recording-Equipment nicht nur bei laufendem Motor, sondern auch bei laufendem Zoom F8N Pro-Recorder (an einem Ambisonics 360°-Mikrofon Sennheiser AMBEO VR) mit dem Auto auf seinen Familienhof in Wulmersreuth.

Dort angekommen öffnet sich nicht nur die Tür des Autos, sondern auch die des Pferdestalls: es geht mit den Ohren raus auf die Pferdekoppel – wir befinden uns mit unseren Ohren also nun auf dem Pferdehof.

Von dort aus werden unsere Ohren in den Stall mitgenommen, wo Heu gegabelt und auf den Hochboden getreckert wird und dazu Hühner gackern…

…bis ein gewaltiges Gewitter aufzieht!

Zwitschernde Vögel, knallende Billardkugeln, schnatternde Enten, gackernde Hühner, schnaubende Pferde, lautlos krabbelnde Schildkröten, krähende Krähen und mehr ist an verschiedenen Aufnahmeorten auf dem Hof zu hören.

Der Tag schließt im Metrum des vor sich hin klicksenden Elektrozauns der Koppel mit dem Zusammen-Pfeifen und -Klatschen der Pferde.

Danke für’s Mitnehmen Aaron!

Die Kurzversion haben wir im SoSe 2025 anlässlich der Abschlusspräsentation der Medienprojekte: Realisierung auf dem Klangdom im Medialab gespielt.

Die ganztägige Version ist etwas für den Klangdom im Medialab für das WiSe 2025/26.

Wassermonat März

Die Wassermusik hat sich anlässlich der Abschlussveranstaltung des Projekts Wassermonat März der Wirtschaftsförderung der Stadt Bayreuth im Neuseum in der Bayreuther Innenstadt präsentiert.

Ausgestellt haben wir über 2 Stunden lang installativ zum Einen die interaktive Webapp Wassermusikwellen-Walzer von Oliver Hofmann und zum Anderen die Wassermusik in As-Dur als sechskanalige Spatial Audio-Installation.

Für das Mehrkanal-Lautsprechersystem der Fachgruppe Medienwissenschaft war es ein erster ›Außendienst‹, der erfolgreich gemeistert wurde.

Die Hörer*innen der Wassermusik-Installationen waren durchgehend begeistert und haben mit großem Interesse den Wasserklängen zugehört.

Mit Dank für die Einladung an die Organisatorinnen!

Wassermusikwellen-Walzer

von Oliver Hofmann

Oliver Hofmann – Wassermusikwellen-Walzer

Die interaktive Version als Web App für den Browser gibt es hier.

Die Wassermusikwellen-Walzer explorieren die akustische Welt der Wasserklänge und deren Transformation in ein musikalisches Erlebnis. Verschiedene Wassergeräusche, darunter Flüsse, Wasserfälle und alltägliche Wasserklänge, wurden aufgenommen und durch Audiobearbeitung wie Sampling und Pitching zu ›Wassermusik-Instrumenten‹ geformt. Diese Klänge bilden ein ›Wasser-Orchester‹, das das den berühmten Walzer ›An der schönen blauen Donau‹ von Johann Strauss interpretiert.

Eine eigens für das Projekt Wassermusikwellen-Walzer programmierte WebApp verbindet Natur und Klassik auf innovative Weise und lädt ein zu einem immersiven und interaktiven Hörerlebnis. So wurde die Wassermusik im Tempo an eine Orchester-Aufnahme angepasst, so dass die beiden Versionen synchron abgespielt werden können. Die App verwandelt das Smartphone in einen Controller mit dem Hörer*innen zwischen der wassermusikalischen Version und der klassischen Orchesteraufnahme hin- und herblenden können, indem sie das Smartphone nach unten (Wasser-Orchester)/nach oben neigen (klassisches Sinfonieorchester). Das Projekt verbindet Natur und Klassik auf im Wortsinne ›unerhörte Art‹ und lädt aufgrund der raumklanglichen Codierung im binauralen Ambisonics-Format zu einem immersiven und interaktiven Hörerlebnis ein.

Die Instrumentation

  • Flöte, Piccoloflöte: Strohhalmschlürfer
  • 2 Oboen: Strohhalmblubberer
  • 2 Klarinetten: Strohhalmblubberer
  • 2 Fagotte: Wasserhahnfluss
  • 2 Hörner: Wellen am Strand
  • 2 Trompeten: Eremitage Kaskade
  • 2 Posauenen: Gießen in Weissbierglas
  • Pauken: Regen auf Windschutzscheibe innen
  • Kleine Trommel: Wasserglastropfen
  • Harfe: Sprudelflasche geschüttelt öffnen
  • Violinen: Wasserglastropfen
  • Bratschen: Eremitage Kaskade
  • Violoncelli: Eremitage Kaskade
  • Kontrabass: Boot fährt unter Brücke

Urwaldbad

von Peter Halbhuber

Peter Halbhuber – Urwaldbad

Dieses Audioprojekt lässt dich in die lebendige Klangwelt eines Dschungelflusses eintauchen. Von sanftem Wasserrauschen über das Gefühl, schwerelos zu schwimmen, bis hin zu einem intensiven Tropenregen erlebst du die Natur hautnah. Die Soundscape fängt die Schönheit und Kraft des Urwalds ein und lädt zum Eintauchen und Verweilen ein.

Die Soundscape nutzt gezieltes Audio-Layering, um verschiedene Soundeffekte und dichte Atmosphären zu erzeugen. Dabei werden einzelne Klangebenen sorgfältig übereinandergelegt, um eine immersive Tiefe zu schaffen, in der jedes Detail hörbar wird. Die Wassertropfen und der Tropenregen wurden mittels Ambisonics-Granularsynthese (Spatial Audio 3D) realisiert, einer Technik, die Klänge in winzige Fragmente zerlegt und neu zusammensetzt, um die feinen Nuancen und die Dynamik natürlicher Wassergeräusche authentisch nachzubilden.