Digitales Studio

Das Digitale Studio ist ein studentisch selbstverwalteter Raum für studentische audio/visuelle Projekte. Fokus liegt auf freien Projekten in den Bereichen Produzieren von digitaler bzw. elektronischer Musik, Klangkunst, Programmieren von Visualisierungen aller Art, sowie experimentellen interdisziplinären Projekten.

Im Wintersemester 2017-18 ist Jonas Kotschenreuther der Ansprechpartner für die Einführung und das Buchen des Digitalen Studios.

Für alle weiteren Fragen zum Digitalen Studio wenden Sie sich bitte an:
miriam.akkermann@uni-bayreuth.de

Neben der freien Raumnutzung für eigene studentische Projekte treffen sich derzeit zwei Gruppen regelmäßig im Digitalen Studio:

Die Audiophilie

ein freies Treffen für alle Studierenden, die an Musik- und Klangexperimenten interessiert sind und/oder sich mit der Produktion von Musik beschäftigen. In diesen Treffen können eigene Arbeiten vorgestellt und diskutiert, aber auch technische Probleme angesprochen und selbstorganisierte Workshops besucht werden.

Kontakt: dieaudiophilie@gmail.com

Wir freuen uns immer auf Interessierte! Bitte erfragen Sie die nächsten Termine der Treffen direkt bei den jeweiligen Gruppen.

Das Kombinat

eine Projektgemeinschaft und Austauschplattform von Studierenden, die sich neben den klassischen Anwendungsbereichen im audiovisuellen Feld auch mit experimentellen Verfahren der Soundproduktion und Projektionskunst (z.B. Video Mapping) und 3D Rendering beschäftigt.

Kontakt: daskombinat@googlemail.com


Produktion aus dem Kombinat (Harris Pilton)

 


Mixtapes von Harris Pilton (live Vinyl)

 


Visuals: 3d-Mapping

Technikworkshop für Studenten der Universität Bayreuth
Betreuung: Prof. Dr. Jochen Koubek
Durchführung: Max Flämig, Eugen Geisler
Termin: 21.09. – 23.09.2012
verwendete Software: Max/MSP

Für Fragen oder weitere Informationen stehen wir zur Verfügung.

 


Eine Kombination

Interaktive Performance

Abschlussprojekt für den B.A. „Theater und Medien“
Betreuung: Prof. Dr. Jochen Koubek
Jahr: 2011
Dauer: 26:00
verwendete Software: Max/MSP, Processing, Ableton Live, Logic Studio, Openframeworks, Quartzcomposer, Resolume Avenue
von Benedikt Kaffai, Alexander Pospischil und Friederike Weykamp

Weitere Informationen können der Projektdokumentation oder dem Programmheft entnommen werden.

 


BAT Campus Galerie: Museumsnacht 2012

Interaktive Multimedia Lounge
Jahr: 2012
verwendete Software: Max/MSP, Ableton Live, Arduino, Quartzcomposer, Resolume Avenue
Musik: Harris Pilton, Lusja
von Eugen Geisler

Als Stipendium der BAT Campus Galerie wurde eine interaktive Installation für die Museumsnacht 2012 konzipiert. Die Idee war die Geräusche der Lounge mit einem Mikrofon einzufangen und über verschiedene Analyseverfahren in das Ambiente direkt in die Visuals einfließen zu lassen. Ein intuitiv bedienbares DIY Interface konnte von den Besuchern der Lounge benutzt werden um weitere Einflussmöglichekeiten auf die Visuals zu nutzen.

 


Farben

Interaktive Klanginstallation mit Visualisierungen

Jahr: 2012
verwendete Software: Max for Live, Processing, Ableton Live
von Alexander Pospischil

 

Die Installation wurde am 08. Februar 2012 im Rahmen des Konzertabends vom Proseminar „Spielarten der Avantgarde“ unter der Leitung von Dr. Knut Holtsträter aufgeführt.
Allerdings ist die Arbeit an diesem Projekt noch nicht beendet, das Video zeigt daher nur ein vorläufiges Ergebnis.

 


Cutlet

Experimentelles Musikvideo

Veranstaltung: „AV-Medien: Bewegung Filmen“ im WS 09/10
Leitung: Prof. Dr. Martina Leeker
Jahr: 2010
Verwendete Software: Logic Studio (Audio), Final Cut Studio (Video)
von Leonard Caspari und Alexander Pospischil

 

Das experimentelle Musikvideo „CUTLET“ entstand aus der Idee heraus, einen typisch musikalischen Produktionsprozess auf den Filmschnitt anzuwenden.
Das Video ist entsprechend in zwei Teile untergliedert:
Zunächst wurde das entstandene Filmmaterial als lineare, „herkömmliche“ Sequenz arrangiert. Traditionell wurden die Schnitte hierbei unter primärer Berücksichtigung von Bildinhalt und -bewegung angesetzt. Für den zweiten Teil des Videos wurde das selbe Filmmaterial in einzelne „Video-Samples“ zerteilt, deren Tonspur nachbearbeitet wurde. Angewendet wurden bei den perkussiven Elementen vor allem Filter, Kompressoren und einige Halleffekte. Für die flächige Soundstruktur der elektronischen Küchengeräte (Saft- und Hand-Mixer) wurde die jeweilige Motorfrequenz als „Tonhöhe“ per Multiband-Equalizing gesondert hervorgehoben, wodurch die harmonische Einbindung im musikalischen Konzept möglich wurde. Als musikalische Vorlage wurde das Lied „Waters Of Nazareth“ der französischen Electro-Gruppe „Justice“ gewählt, welches sich aufgrund der streng repetitiven Struktur zum nach- produzieren eignete.
Für die visuelle Anordnung des Filmmaterials wurde im zweiten Teil das Splitscreenverfahren gewählt, da somit die Übersicht und Nachvoll- ziehbarkeit des Arrangements gewährleistet werden konnte.

 


Kamera- & Magnetsequencer

Klanginstallation / Interface

Veranstaltung: „Digitale Medien: Arduino“ sowie „Projekte im Digitalen Studio“ im SoSe 2010
Leitung: Prof. Dr. Jochen Koubek, Prof. Dr. Martina Leeker
Jahr: 2010
Verwendete Software: Arduino, Max/MSP/Jitter, Max for Live, Ableton Live
von Alexander Pospischil

 

Die Motiviation für dieses Projekt ging aus der Idee hervor, ein haptisches Interface für elektronische Musik zu basteln. Die Installation sollte klangliche Events unmittelbar hervorbringen, so dass ein instrumentenähnliches „Spiel“ möglich ist. Auch wenn dieses kaum mit der Virtuosität eines Geigenspielers verglichen werden könnte, erhoffte ich mir von der Installation zumindest einige unkonventionelle Ergebnisse und Inspirationen.
Durch das Software-Crossgrade „Max for Live“ wird die Einbindung von Max-Patches in das Musikprogramm Ableton Live erheblich ver- einfacht, und die beiden Sequencer können entsprechend als Instrument- oder auch als Effekt-Steuerung in den persönlichen Produktions- Workflow integriert werden. Der Prototyp der Installation wurde im Rahmen der Creative-Coding Konferenz im Juli 2010 an der Uni Bayreuth ausgestellt.
Der Magnet-Sequencer greift auf die Idee von alten mechanischen Instrumenten (Lochscheibe) aus „prä-elektronischen“ Zeiten zurück, und verbindet diese gleichzeitig mit einem in der musikalischen Kultur fest etablierten Gerät, dem Plattenspieler. Der Benutzer erhält durch den haptischen Charakter die Möglichkeit des Verschiebens der Magneten und soll somit ein neues Gefühl für Rhythmen entwickeln können. Auf dem Teller des Plattenspielers habe ich den Metall-Deckel einer alten Filmdose befestigt. Dadurch konnten die Magneten auf dieser Filmdose haften, ohne sich gegenseitig anzuziehen und ihre Position zu ändern. Über dem Plattenspieler ist eine „Brücke“ angebracht. Die 5 Reed-Kontakte, welche sich direkt unterhalb dieser „Brücke“ befinden, funktionieren wie kleine Schalter, die sich jeweils dann schließen, wenn sich in ihrer unmittelbaren Umgebung ein Magnet(-feld) befindet. Der Arduino-Computer analysiert, welcher Reed-Kontakt sich wann schließt, und sendet das Ergebnis der Analyse direkt an einen Max for Live-Patch weiter. In diesem Patch werden die eingegangen Daten in Midi-Noten umgewandelt. Somit löst jeder Reed-Kontakt jeweils eine bestimmte MIDI-Note aus, sobald ein Magnet unter ihm vorbeifährt.
In der Videopräsentation der Installation (siehe DVD) wird der Magnet-Sequencer als Drum-Machine benutzt. Die MIDI-Daten triggern Drum- samples, somit kann der Benutzer die Magnete in beliebigen Rhythmusstrukturen anordnen. In der DAW Ableton Live ist der ganze Patch übersichtlich und nutzerfreundlich zusammengefasst. Man erkennt einen Schalter um das Pro- gramm zu starten und erhält durch 5 blinkende Felder ein optisches Feedback darüber, ob ein Reed-Kontakt einen Magnet erkannt hat.
Dem Kamera-Sequencer liegt die Idee einer Sonifikation von Farbwerten zugrunde. Das Live-Bild einer Kamera erfasst beliebige Gegen- stände, die direkt davor auf einem Plattenteller vorüberfahren. Eine kleiner Bereich (10×10 Pixel) des übertragenen Bildes wird per Max/Jitter in Echtzeit ausgewertet und nach Farbton, Farbsättigung und relativer Helligkeit analysiert. Durch die Einteilung der Farbton-Ergebnisse in bestimmte Intervalle können den einzelnen Farben der Gegenstände bestimmte MIDI-Noten zugeordnet werden, andererseits können durch die kontinuierliche HSL-Analyse entsprechend auch kontinuierliche Änderungen musikalischer Parameter vorgenommen werden.