Supercomputing. Medienkulturen zwischen Parallelität und Scalability
Projekt: Forschung
Projektbeteiligte
- Vehlken, Sebastian (Wissenschaftliche Projektleitung)
- Engemann, Christoph (Wissenschaftliche Projektleitung)
Beschreibung
Als Seymour Cray 1976 der Öffentlichkeit seine Cray-1 präsentiert, wird nicht nur ein von roten Leuchtflächen durchzogener schwarzer Monolith schlagartig zur Ikone des Computer- und High-Tech-Zeitalters. Es ist zugleich die Initialzündung für die sprunghafte Entwicklung einer sich ständig in hoher Taktung selbst überholenden Avantgarde immer schnellerer Großcomputer. Unser Projekt erforscht aus einer medien- und kulturwissenschaftlichen Perspektive das Feld des Supercomputing unter zwei leitenden Gesichtspunkten: Erstens möchten wir einer Medientechnikgeschichte des Supercomputings historisch-systematisch nachgehen. Eine solche Mediengeschichte scheint sich um einen zentralen Begriff anzuordnen und sich mit diesem auch theoretisch fassen zu lassen: Parallelität ist nicht nur jenes Prinzip, das die Hardware-Architekturen von Supercomputern beschreibt, sondern dessen Organisation auch auf der Ebene von Programmiersprachen und Software-Entwicklung leitendes Paradigma und zugleich zentrales Problem ist.
Zweitens wird unser Projekt die epistemischen Effekte von Supercomputing ausloten, indem wir von dessen Anwendungskontexten aus neue Wissensformationen untersuchen, die erst durch HPC (High Performance Computing) adressierbar werden. Diese Effekte müssen dabei stets im Zusammenhang der sozio-ökonomischen und sozio-politischen Kontexte gesehen werden, in denen und für die Supercomputing Anwendung findet. Zentral für eine solche Epistemologie des Supercomputings scheinen uns die Begriffe Skalierung und wiederum Parallelität zu sein. Und während die mikroelektronische Verkleinerung als Entzug der Fasslichkeit und Entrückung der seinsbestimmenden Strukturen (Kittler 1993, Siegert 2004, Dotzler 2006) einen Einsatzpunkt medienwissenschaftlicher Reflektionen darstellte, sind die epistemischen und gouvernementalen Implikationen eskalierender und sich parallelisierender Rechenkapazitäten bislang unbefragt geblieben (vgl. auch Pias 2011).
Am medien-materiellen Beispiel des Supercomputing lassen sich diese zentralen Begriffe der Parallelität und der Skalierung auf verschiedenen Ebenen miteinander verzahnen und informieren. Zum einen auf der Ebene der reinen Hardware, wo Größenprobleme von den Prozessoren über die Speicher- und Vernetzungsorganisation bis hin zur Energie- und Kühlungstopologie essenziell werden. Zugleich ist zweitens auf der Ebene der Betrieb- und Dateisysteme, der Programmiersprachen und Benutzeroberflächen das Problem der Größe und der Größenverhältnisse diskursgenerativ wirksam. Und schließlich sind im HPC die Probleme und Problemzugriffe und mithin die Zuständigkeitsformulierungen über Diskurse von Größenverhältnissen organisiert: große Datenmengen – Big Data – seien nur mit massiv parallel arbeitenden Supercomputern zu bewältigen, und deren Verarbeitung erlaube neuartige Erkenntnismodi. Die Maximalvariante dieses Diskurses bietet die Behauptung des Wired-Autors Chris Anderson, dass mit Big Data Theoriebildung und wissenschaftliche Methoden an ihr Ende kämen. Anstatt jedoch dieses postulierte Ende der Theorie anzunehmen, werden wir versuchen, anhand einer Genealogie und Epistemologie des Supercomputing seine medientechnischen Möglichkeitsbedingungen genauer auszuweisen und medienhistorisch zu rekonstruieren.
Zweitens wird unser Projekt die epistemischen Effekte von Supercomputing ausloten, indem wir von dessen Anwendungskontexten aus neue Wissensformationen untersuchen, die erst durch HPC (High Performance Computing) adressierbar werden. Diese Effekte müssen dabei stets im Zusammenhang der sozio-ökonomischen und sozio-politischen Kontexte gesehen werden, in denen und für die Supercomputing Anwendung findet. Zentral für eine solche Epistemologie des Supercomputings scheinen uns die Begriffe Skalierung und wiederum Parallelität zu sein. Und während die mikroelektronische Verkleinerung als Entzug der Fasslichkeit und Entrückung der seinsbestimmenden Strukturen (Kittler 1993, Siegert 2004, Dotzler 2006) einen Einsatzpunkt medienwissenschaftlicher Reflektionen darstellte, sind die epistemischen und gouvernementalen Implikationen eskalierender und sich parallelisierender Rechenkapazitäten bislang unbefragt geblieben (vgl. auch Pias 2011).
Am medien-materiellen Beispiel des Supercomputing lassen sich diese zentralen Begriffe der Parallelität und der Skalierung auf verschiedenen Ebenen miteinander verzahnen und informieren. Zum einen auf der Ebene der reinen Hardware, wo Größenprobleme von den Prozessoren über die Speicher- und Vernetzungsorganisation bis hin zur Energie- und Kühlungstopologie essenziell werden. Zugleich ist zweitens auf der Ebene der Betrieb- und Dateisysteme, der Programmiersprachen und Benutzeroberflächen das Problem der Größe und der Größenverhältnisse diskursgenerativ wirksam. Und schließlich sind im HPC die Probleme und Problemzugriffe und mithin die Zuständigkeitsformulierungen über Diskurse von Größenverhältnissen organisiert: große Datenmengen – Big Data – seien nur mit massiv parallel arbeitenden Supercomputern zu bewältigen, und deren Verarbeitung erlaube neuartige Erkenntnismodi. Die Maximalvariante dieses Diskurses bietet die Behauptung des Wired-Autors Chris Anderson, dass mit Big Data Theoriebildung und wissenschaftliche Methoden an ihr Ende kämen. Anstatt jedoch dieses postulierte Ende der Theorie anzunehmen, werden wir versuchen, anhand einer Genealogie und Epistemologie des Supercomputing seine medientechnischen Möglichkeitsbedingungen genauer auszuweisen und medienhistorisch zu rekonstruieren.
Status | Abgeschlossen |
---|---|
Zeitraum | 27.07.11 → 31.03.13 |
Verknüpfte Publikationen
Supercomputing
Publikation: Beiträge in Sammelwerken › Aufsätze in Sammelwerken › Forschung › begutachtet