Media Brunch mit FragDenStaatPLUS, SVIFT und VR Interactive Music Experience, Experte: BR-Data am 24. Oktober 2017

Der nächste Media Brunch findet am Dienstag, den 24. Oktober 2017 um 10:00 Uhr im MIZ-Babelsberg statt. Bei Snacks und Kaffee werden die Teams der Innovationsprojekte FragDenStaatPLUS, SVIFT und VR Interactive Music Experience ihre Ideen präsentieren. Als Expertin erwarten wir Ulrike Köppen, Leiterin des BR-Data-Teams.

Über FragDenStaatPLUS

FragDenStaatPLUS ist ein Open-Source-Tool, welches dazu dient, (Daten-)JournalistInnen auf Basis des Informationsfreiheitsgesetzes (IFG) bei der Recherche in Behörden zu unterstützen. Es bietet zum einen die Möglichkeit, gebündelte Anfragen an mehrere Institutionen gleichzeitig zu versenden. Zum anderen kann mit der dazugehörigen Plattform eine Crowd-Recherche durchgeführt werden. Das Projekt wird im Rahmen der Innovationsförderung für Medienprofis von Arne Semsrott, Andrej Sandorf und Nadine Stammen umgesetzt.

Über SVIFT

Visualisierungen haben für den Journalismus an Bedeutung gewonnen, etwa im Bereich Fernsehen (Bewegtbild) sowie in crossmedial arbeitenden kleinere Redaktionen. Mit SVIFT entsteht im Rahmen der MIZ-Innovationsförderung für Studierende und Start-ups ein Datenvisualisierungs-Tool für JournalistInnen, das es ermöglicht komplexe Sachverhalte und Entwicklungen für verschiedene Zielmedien (TV, Online) zu veranschaulichen. Eine intuitive NutzerInnen- und Menüführung verschafft AnwenderInnen einen leichten Einstieg. Die geplante Software as a Service (SaaS)-Plattform wird vor allem für JournalistInnen in kleineren oder Lokalredaktionen konzipiert, für die der Einsatz von Software-EntwicklerInnen im Redaktionsprozess zu kostspielig ist.

Über VR interactive Music Experience

Mit der VR Interactive Music Experience werden Sound und Musik auf neuartige Weise im virtuellen Raum präsentiert und erfahrbar gemacht. Es sollen bisher ungenutzte Möglichkeiten erforscht und genutzt werden, Musik, 3D-Sound, Grafik und Animation in VR zu verbinden.
Dafür werden PCM (Puls Code Modulation)-Daten des 3D-Sounds ausgelesen, um in Echtzeit die Raumarchitektur, Interaktionsmöglichkeiten und Elemente in der Experience-Umgebung zu generieren. Animationen von humanoiden Non-User-Charakteren, mit denen die NutzerInnen in Interaktion treten können, werden u.a. mit Hilfe von Ergebnissen aus Motion Capturing-Aufnahmen erzeugt und von einer einfachen, Algorithmen basierten KI gesteuert. Einige Objekte werden prozedural, d.h. für jeden Neustart einzigartig, erschaffen. 

Anmeldung und Kontakt

InteressentInnen sind herzlich eingeladen, sich via
E-Mail  anzumelden. Wir bitten alle Gäste, pünktlich um 10:00 Uhr im Haus zu sein. Der Media Brunch endet ca. um 11:30 Uhr.