BDG-Newsletter

BDG-Newsletter

11. Dezember 2018

FURE 2018 – digital, analog, digilog, phygital? Nachlese von Diana Pascucci und Irmi Schröer

Aus eins mach zwei: Während die Premiere der FURE in 2017 eintägig lief, wurde in diesem Jahr ein voller zweiter Konferenztag, FURE+ genannt, angehängt. Der erste Tag stand im Zeichen geballter Praxis, der zweite widmete sich der Wissenschaft und den theoretischen Hintergründen. Was beide Tage vereint, ist der Anspruch, sich umfassend mit der Zukunft des Lesens und der Rolle, die Gestalterinnen und Gestalter jetzt und künftig darin einnehmen, auseinanderzusetzen. Für alle Interessierten hier ein paar Eindrücke und Zusammenfassungsversuche der Vorträge.

Tag 1

Sonja Knecht, Texterin: Die Zukunft des Lebens / Lesens

Text löst die unterschiedlichsten Bilder aus. Schaut man sich beispielsweise den ersten Satz aus der „Verwandlung“ von Kafka an und wie viele, extrem unterschiedliche visuelle Interpretationen Illustratorinnen und Illustratoren, Zeichner+innen und Designer+innen dazu im Laufe der Zeit gestaltet haben, wird das schnell deutlich. Sogar eine Schrift gibt es – die Mr. K von Julia Sysmäläinen – inspiriert von Kafkas Handschrift und seinen Zeichnungen. „Bei Kafka sitzt jedes Wort an genau der richtigen Stelle“, so Knecht, die die folgenden Thesen aufstellt:

1. Die besten Bilder entstehen im Kopf – durch Wörter.
2. Text ist Information – immer. Aber nicht nur. Text ist auch Emotion und Intention. Text formt verbale Identität und interagiert mit visueller Identität. Zusammenpassende Verbalität und Visualität wird als harmonisch, Unstimmigkeiten werden als störend wahrgenommen. Das gilt on- und offline, zumal Menschen sich permanent an der Erfahrungsschnittstelle on-/offline bewegen. Und: Auch Satzzeichen sind Gestaltungsmittel.
3. Sprache ist ein Gestaltungsmittel. Online, offline, schriftlich, mündlich. Überall.
In der Quintessenz bedeutet das: Text ist gestaltete Sprache.
Wer mehr über Sonja Knecht wissen möchte: www.txet.de (Nein, das ist kein Schreibfehler)

Sabina Sieghart, Kommunikationsdesignerin und Forscherin: Leichte Sprache, Typografie & Designforschung

In Deutschland gibt gibt es 7,5 Mio. Menschen, die Sprache und Texte nur in einfacher Form aufnehmen können, die also auf Leichte Sprache angewiesen sind. Dies sind z.B. kognitiv eingeschränkte Menschen und funktionale Analphabeten.

Leichte Sprache ist ein essenzielles Werkzeug barrierefreier Kommunikation und hat nicht nur eine linguistische, sondern auch eine typografische Komponente. Die Empfehlungen des Bundes für den Textsatz Leichter Sprache (Arial, mind. 14 pt) sind starr. Diese Empfehlungen sind jedoch nicht ausreichend, und Gestalter+innen können durch Makro- und Mikrotypografie entscheidend die Leserlichkeit eines Textes beeinflussen. Schriftwahl (z.B. offene Punzen), Zeichenabstand etc. sind Mittel, die dazu gezielt eingesetzt werden können.

Sieghart stellt das LeiSA-Projekt vor, aus dem heraus das Buch „Leichte Sprache – kein Regelwerk“ entstanden ist. Im Rahmen des LeiSA-Projektes wurde eine mikrotypografische Studie durchgeführt, mit u.a. diesen Ergebnissen: Der Duktus einer Schrift ist entscheidender als die Frage, ob eine Schrift Serifen hat oder nicht. So wurde die Arial eben nicht besser gelesen wird als andere Schriften, sondern sogar bei weitem schlechter. Im Test waren neben der Arial verschiedene Thesis-Formen (Sans, Serif, Mix, Antiqua B), die sich in den Serifen unterscheiden, aber nicht in Buchstabenform oder Grauwert. Auch der empfohlene Mindestschriftgrad von 14 pt ist nicht entscheidend; im Test waren 12 bis 12,5 Punkt.

Wichtig für Menschen, die auf Leichte Sprache angewiesen sind, sind auch barrierefreie Websites, wobei viele nicht so barrierefrei sind, wie sie es versprechen. So ist der Code manchmal derart aufgebaut, dass nicht alle Apps, die Leseschwache/Eingeschränkte unterstützen, optimal auf den Inhalt einer Website zugreifen können.

Künftig könnte Variablen Fonts eine relevante Rolle für visuell eingeschränkte Menschen zukommen, da sich jede/r die Schrift so einstellen kann, dass sie für ihn/sie gut erfassbar ist.

Mehr zum Forschungsprojekt Leichte Sprache und zum LeiSA-Projekt:

Klicken Sie auf den unteren Button, um den Inhalt von gestaltungsinstitut.de zu laden.

Inhalt laden

http://research.uni-leipzig.de/leisa/leicht/projekt.html

Bettina Andresen, Kommunikationsdesignerin: Inklusives Kommunikationsdesign

In Deutschland sind 3,5 Mio. Menschen von Legasthenie betroffen. Andresen untersucht, ob die sog. Dyslexie-Fonts für legasthene Menschen tatsächlich hilfreich sind.

Das Gehirn eines legasthenen Menschen verarbeitet Text anders als das Gehirn eines geübten Lesers, es werden Gehinareale anders oder nicht aktiviert. So haben legasthene Menschen z.B. Probleme bei der Erkennung von Buchstaben, obwohl sie die zugrunde liegenden Formen, aus denen sich ein Buchstabe zusammensetzt, erkennen können. Hilfreich sind asymmetrische Punzen und ein klares Schwergewicht des einzelnen Buchstabens im grundliniennahen Bereich.

Ergebnis des ersten Teils von Andresens Studie ist, dass tatsächlich die Arial am schnellsten gelesen wird von Legastheniker+innen. In der Kontrollgruppe geübter Leser+innen waren es überraschend die Dyslexie-Fonts, die am schnellsten gelesen wurden. Im zweiten Schritt wurde die Arial manipuliert, woraufhin die Schrift signifikant schlechter gelesen wurde. Das liegt möglicherweise auch daran, dass wir auf die Arial sozialisiert sind, wie die Vortragende ausführt.

Atilla Korap, Monotype: Was wir sehen, wenn wir lesen

Korap stellt die technische Entwicklungsgeschichte von Fonts vor. Zunächst gab es Bitmap-Schriften, die in kleinen Schriftgraden gut lesbar sind, aber den Nachteil haben ,dass beim Hochskalieren auch die Pixel mitwachsen. Vorteil der Bitmap-Fonts ist der geringe Speicherbedarf. Die späteren skalierbaren Schriften unterliegen auch einem Pixelraster, es stehen jedoch deutlich mehr Pixel je Glyphe zur Verfügung.

Anatomie der Vektorschriften: Ein Zeichen besteht aus einer oder mehr Konturen, die wiederum in Ankerpunkten (On- und Off-Curve-Points) beschrieben werden, deren Zwischenräume Segmente bilden. Die Lage der Ankerpunkte wird in Koordinaten beschrieben.

Darstellung von Schrift auf Bildschirmen im Laufe der Jahrzehnte:
Wie wird Schrift in Indesign dargestellt? Dafür gibt es die Rendering-Engine, die die jeweils angeforderte Glyphe passend umrechnet. Dazu kommt das Hinting, das quasi die Anwendungsvorgaben für die Rendering-Engine bereitstellt.

Rendering:
In den 80er-Jahren gab es zunächst lediglich Schwarz-Weiß-Rendering. In den 90ern folgte die Weiterentwicklung mit dem Graustufen-Rendering; gefolgt vom Sub-Pixel-Rendering, das mit Rot – Grün – Blau arbeitet und weitere Verfeinerung bietet, wodurch die Glyphe schärfer aussieht, das Auge jedoch stärker belastet wird (und schneller ermüdet). Variable Fonts werden in Echtzeit gerendert, wer mal testen und spielen mag: https://www.axis-praxis.org

Beim Darstellen am Bildschirm und somit beim Bildschirm-Lesen helfen größere x-Höhen (in dem Minuskeln mehr Platz haben), ein weiteres Spacing und ein nicht allzu hoher Strichstärkenkontrast.

Erstellung von 3D-Fonts:
3D-Fonts haben eine polygonale Grundstruktur, welche, aus Dreiecken zusammengesetzt, den Buchstabenkörper bildet. Aus der Outline einer Glyphe wird eine polygonale Annäherung erstellt, die an eine 3D-Engine geleitet wird, welche dann die finale dreidimensionale Form der Glyphe errechnet.

Nils Tiemann, Germanist und Buchhersteller: Books in Browsers – wo und wie werden wir in Zukunft lesen?

Digitales Publizieren ist an einem Wendepunkt, so Tiemanns Eingangs-Statement.
Kritikpunkt 1: E-Books werden umfassend auf verschiedenen, sehr unterschiedlichen Leseumgebungen für monofunktionale Lesegeräte (eReader) getestet. Das macht im Herstellungsprozess massive 80% der gesamten Arbeit aus.
Kritikpunkt 2: eReader können digitale Lesetechnologien nicht hinreichend ausschöpfen, da sie keine Verarbeitung von Video-, Audiodaten oder von Skripten ermöglichen.

Es gibt zwar den seit 2014 bestehenden Standard epub3, der multimediale Inhalte zuließe, doch Verlage arbeiten kaum damit. Das ist kein Zufall, diese hardwareseitige Einschränkung ist aus Marketinggründen gewollt.

Im Internet lesen – also direkt im Browser, unabhängig von eReadern – würde einen vielfältigeren Zugriff auf multimediale Inhalte erlauben. Vorteile einer reinen Web-Publikation sind Identität / Identifizierbarkeit und Linearität (Standardreihenfolge der Inhalte, festgelegte Struktur)

Die als „Verpackung“ bezeichnete Zusammenfassung aller Inhalte einer Web-Publikation (portable web application) ist transparent – das heißt, das Format ist im verpackten Zustand durchsuchbar, was einen Unterschied zu den derzeit verfügbaren, geschlossenen Publikationen im eReader-Segment darstellt.

Responsive Typografie und dynamische Inhalte können in Web-Publikationen dargestellt bzw. zur Verfügung gestellt werden – so können Leser+innen interagieren, kommentieren, durchsuchen. Auch der Schreibprozess an sich kann so im Netz abgebildet werden. Tipp des Vortragenden: Die Folien des Vortrags sind auf Twitter zu finden.

Ruslan Krohn, TBO: Wie sich der Umgang mit dem Lesen verändert

„Das Lesen, so wie wir es kennen, existiert nicht mehr.“ Krohn stellt zu Beginn die Einführung des iPhones vor 11 Jahren – „This changes everything“, hieß es damals von Apple – in ihrer Fundamentalität auf eine Stufe mit der Erfindung des Buchdrucks. Seine Thesen:

1. Die Technik nimmt uns an die kurze Leine.
Die durchschnittliche tägliche Nutzungsdauer des Smartphones liegt bei 3,5 Stunden. Das Smartphone ist somit zu einem Kommunikationsorgan geworden.

2. Generation Screen: Aufmerksamkeit ist die neue Währung.
Und um die buhlen so einige. Ein Übermaß an Information ist die Folge, die wiederum Auslöser von Stress ist. Untersuchungen zeigen, dass die Aufmerksamkeitsspanne in der Generation Y von 3 Minuten auf 45 Sekunden gesunken ist.

3. Wir befinden uns in eine Krise des vertieften Lesens.
Ein Problem der Taktung: Zu viel Information in zu kurzer Zeit verhindert eine tiefere Aufnahme von Informationen.

4. Nur wer sich gut organisiert, überlebt.
Dem Stress durch zu viel Information in zu hohem Takt entgegenzuwirken, erfordert ein hohes Maß an Disziplin und Organisation. Die Zeit für Müßigkeit und die Freiräume schwinden.

5. Wir haben Sehnsucht nach Nischen und Auszeiten.
Medienkompetenz muss neu gelernt werden, um mit dem Übermaß an Informationsberieselung gut umzugehen.

6. Print ist Luxus.
Print kostet, sowohl Bücher als auch (Wochen-)Zeitungen.

7. Stores werden zu Eventstätten. Dort gibt es lebendigen Austausch, Anonymität, haptische Erlebnisse.

8. Wir werden viel hören und viel sprechen.
Aber viel weniger lesen, geschweige denn schreiben. Menschen möchten sich keine Mühe geben müssen mit Apps, mit dem Einarbeiten in und der Beschäftigung mit Funktionalitäten. Genau das bietet die Sprachsteuerung in Form digitaler Assistenten. Damit wird das Navigieren durch digitale Welten anstrengungsfrei.

9. Emotional AI wird unser Leseverhalten beeinflussen.
Ist der User gerade in der Lage, Leseinhalte aufzunehmen? Emotional AI, eine Anwendungsform künstlicher Intelligenz, erkennt unser Befinden und stellt entsprechende Inhalte bereit.

10. Das Lesen ist tot – es lebe das Lesen!

Prof. Rüdiger Quass von Deyen: Magazine und Zeitungen in der Krise

Über die Entwicklung elektronischer Medien hinweg hält sich Print. Die Gesellschaft lernt gerade erst, mit derart vielen Informationen umzugehen. Es geht nicht um alt oder neu, sondern um Koexistenz: das Nebeneinader von Print und Digital. Es geht also um Mediennutzung.

Auflagenentwickung: Sinkende Auflagen bei Tageszeitungen, steigende Auflagen bei digitalen Magazinen. Auflagen der Wochenzeitungen bleiben relativ stabil. Magazinauflagen der Publikumstitel sinken, allerdings bei steigender Titelzahl. Bücher werden konstant gelesen, hier sind die Auflagen in den letzten 5 Jahren recht konstant.

Im mittlerweile übersättigten Markt entscheidet allein die Konsumentin und der Konsument. Für Gestalter+innen ist es damit nicht einfacher geworden, Inhalte an den Rezipienten bzw. die Rezipientin zu bringen.

Nina Lakeberg und Julia Wiesmann, Kommunikationsdesignerinnen: Smartfox – spielerische Vermittlung von Medienkompetenz für Kinder

Smartfox, entstanden als Abschlussarbeit an der MSD, will Eltern in der Medienerziehung unterstützen, um Kinder auf die digitale Medienwelt vorzubereiten. Dabei erhalten Eltern und Kinder gleiche Inhalte/Themen, aber unterschiedlich aufbereitet.

Smartfox besteht aus einer analog-digitalen Medienkombi. Analoges Medium dabei ist eine Magazinreihe mit informativen Einheiten für die Eltern. Darin gibt es auch Kinderseiten, z.B. wird ein Passwort gebastelt und erläutert, wozu ein gutes Passwort dient. Digitales Medium ist eine App mit zwei Bereichen: informativ für die Eltern, spielerisch für die Kinder. Aufbereitet in erster Linie für Smartphone und Tablet, ausgehend davon, dass Kinder häufig den Zugriff auf ein Familientablet o.ä. haben.

Wichtiger Bestandteil des Gesamtkonzeptes ist, dass Eltern und Kinder gemeinsam Medienkompetenz erlernen.

Zahlen zum Projekt: 11,5 % der Eltern beschäftigten sich 2016 mehrmals pro Woche mit Online-Inhalten. Zielgruppe für Smartfox sind vorrangig Grundschulkinder bzw. deren Eltern, vorrangig im Alter von 30 bis 35 Jahren. 97 % der Eltern nutzen Smartphones, 72 % der Grundschulkinder nutzen Tablets, 48 % der Grundschulkinder nutzen Smartphones. Ob Smartfox tatsächlich auf den Markt gebracht wird, ist derzeit noch unklar.

Mario Lombardo, Designer: Nesel

„Druck ist Müll, ist Umweltverschmutzung geworden, es wird nur noch billig gedruckt.“ – „Kreativität hat mit Spielen zu tun. Ohne Spaß gibt es keine Kreativität.“ Lombardo zeigt seine Arbeiten, und zwar sehr sehr viele. Als früherer Art Director der Spex und Gestalter etlicher weiterer Magazine verantwortet er eine reichhaltige, freie, experimentelle und immer abwechslungsreiche Herangehensweise an Editorial- und auch Schriftgestaltung, Corporate Design, Advertising, Ausstellungen und Video-Arbeiten.

Antonia M. Cornelius, Kommunikationsdesignerin und Autorin: Buchstaben im Kopf

Cornelius beschäftigt sich mit Faktoren, die die Leserlichkeit von Texten beeinflussen. Aus diesen Forschungen ist ihr Buch „Buchstaben im Kopf“ entstanden. Auf der FURE gibt sie einen Einblick in Wahrnehmung und Leseprozesse.

Wie leicht oder schwer das Erfassen und Verstehen eines Textes ist, hängt entscheidend von der Textgestaltung ab. Weitere Einflussfaktoren auf die Leserlichkeit sind u.a. Betrachtungswinkel, Lichtsituation und Oberfläche.

Cornelius differenziert klar: Leserlichkeit ist, wenn sich mehrere Buchstaben erkennbar zu einem Wort zusammenschließen. Lesbarkeit ist, wenn typografische Mittel den Lesekomfort steigern. Zu Letzterer gehört die Wahl der passenden Schriftgröße, des passenden Zeilenabstands etc., immer bezogen auf die jeweilige Lesesituation.

Doch was sehen wir eigentlich genau – optisch? Tatsächlich nicht die Buchstabenformen – sondern die weißen Zwischenräume und Innenräume, da die Fotorezeptoren in unseren Augen ausschließlich auf Lichtimpulse reagieren.

Schlecht lesbar sind beispielsweise zu kompress gesetzte, sehr fette Wörter, aber auch zu feine Strichstärken und zu kleine Öffnungen in den Buchstaben.

Lesen = Buchstaben sehen? Unser Gehirn führt, bei geübten Lesern, unsere Augen nicht über einzelne Buchstaben, sondern über sog. Sakkaden, das sind Einheiten bzw. Sprünge von 7 bis 9 Buchstaben Länge. Das Auge springt dabei von einem fokussierten Punkt zum anderen. Dazwischen gibt es kurze Momente der Fixation auf einen Buchstaben. Im Zentrum der Fixation erfassen wir zwei bis drei Buchstaben in der Fovea (Sehgrube), dem Punkt des schärfsten Sehens. Im angrenzenden parafovealen Bereich erfassen wir zehn bis zwölf Buchstaben.

Auch der Textsatz ist von Relevanz: Kurze Zeilen erhöhen das Lesetempo, ermüden aber das Auge schneller als längere Zeilen. Zu lange Zeilen sind auch wieder nicht optimal, und kurze Zeilen brauchen einen geringeren Zeilenabstand als lange Zeilen.

Gestalter haben es in der Hand, die Lesbarkeit eines Textes zu optimieren.Aber wie genau beeinflusst die Textgestaltung das Lesen? Kurz gesagt: Je leserlicher eine Schrift, desto größer das Sichtfenster, desto größer die Sakkaden, desto schneller die Lesegeschwindigkeit.

Wie erschließen wir nun aus dem Gelesenen einen Sinn? Darauf gibt die Kognitionswissenschaft einen Hinweis: Wahrscheinlich hat unser Gehirn alte Schaltkreise quasi umformatiert, denn entwicklungsgeschichtlich ist das menschliche Gehirn nicht für das Lesen ausgelegt. Zum Lesenlernen ist die Verknüpfung von Sehen und Sprache entscheidend. Im Gehirn sind dazu Seh- und Sprachareale verknüpft, zudem legen wir eine Art neuronales Lexikon an, das die Bedeutung der Wörter speichert.

Bei der Buchstabenerkennung konzentriert sich das Gehirn auf die grundsätzliche Form von Buchstaben, auf die wesentlichen Merkmale, nicht auf die genaue Ausprägung, die die Schriftart bereitstellt, in der ein Buchstabe, ein Wort gesetzt ist.

Wörter werden auf drei Ebenen erkannt: Merkmal-, Buchstaben- und Wortdetektoren. Zwischen diesen Ebenen finden eine Vernetzung und ein Austausch an Information statt. Wörter werden also nicht anhand ihres Wort-Gesamt-Umrisses erkannt, wie mittlerweile sicher belegt ist.

Gemischt oder versal – was funktioniert besser? Gemischter Satz (Substantivgroßschreibung) wird auf Dauer am schnellsten gelesen, unabhängig von kultureller Sprachgewohnheit.

Ein Wort wird schneller gelesen, wenn Wortbedeutung und Textgestaltung Hand in Hand gehen. Selbst die Sprache, in der ein Text in einer bestimmten Schrift gesetzt ist, hat Einfluss auf die Lesbarkeit. So ist ein italienischer Text in der italienischstämmigen Bodoni  tatsächlich besser zu lesen und harmonischer im Erscheinungsbild als ein deutscher Text.

Fazit:

Berücksichtigung der Lesesituation
+ leserliche Schrift
+ lesbare Typografie
= Optimierung des Leseprozesses
= schnelleres Lesen

Das war der erste Tag der FURE. Der zweite Tag war thematisch um Einiges anspruchsvoller, und teils wurde auf Englisch vorgetragen. Man möge mir die lückenhaftere, weniger zusammenhängende Protokollierung nachsehen. Merci. Und jetzt: weiter im Text.


Tag 2

Prof. Dr. Norbert M. Schmitz: Mediensimulation als Selbsterkenntnis unserer Natur. Zum Verhältnis von Medientheorie und Anthropologie

„Es gibt keine Kultur außerhalb unserer Natur“, startet Schmitz seinen Vortrag. Medien sind Werkzeuge unserer Natur, wenn sie Aktionen unserer Körperlichkeit in Artefakte übertragen.
Die Objektivität der Medien liegt in ihrer Funktionalität. So wird Interpretation ermöglicht, was Schmitz als Anthropologie der Medien bezeichnet.

Das Auge kann nur so sehen, wie es im Lauf der Evolution zu sehen gelernt hat – so nehmen wir ein an die Wand projiziertes Bild eines dreidimensionalen Gegenstandes immer auch als dreidimensional wahr, obwohl wir wissen, dass es sich lediglich um eine flache Darstellung handelt. Es kostet uns künstliche Konzentration, uns von der Wahrnehmung von Dreidimensionalität bzw. Tiefe zu lösen. „Medien zu verstehen, ist ein Prozess menschlicher Selbsterkenntnis.“

Prof. Dr. Patrick Rupert-Kruse: Designing Digital Worlds. Überlegungen zur Konzeption synthetischer Realitäten.

Die Evolution der Medien speist sich aus Imagination und Wissenschaft. Rupert-Kruses Stichwort hierzu ist Embodiment, also Verleiblichung. In der Augmented Reality und Virtual Reality verlassen wir den rein digitalen Raum, können Dinge tatsächlich anfassen, anstatt nur virtuell „Sinneserfahrungen“ zu machen.

Begriffsklärung: Virtual Reality (VR) überdeckt die Sinne und die Motorik. Augmented Reality (AR) hingegen überlagert die Realität bzw. reichert sie an, es besteht jedoch keine Interaktion zwischen tatsächlichen und virtuell herbeigeführten Sinneseindrücken. Merged oder Mixed Reality (MR) bezeichnet interagierende Abstimmung zwischen virtuellen und realen Eindrücken.

Als Basis wurde die Studie „Embodied Interaction: Exploring the Foundations of a New Approach to HCI“ von Paul Dourish angeführt. Wer sich damit tiefer beschäftigen möchte: https://www.researchgate.net/publication/228934732_Embodied_interaction_Exploring_the_foundations_of_a_new_approach_to_HCI

Dr. Martina Sauer, Bildwissenschhaftlerin: Konzept zum Verständnis analoger und medialer Medien

„I’m interested in feelings“, sagt Sauer als ersten Satz, denn: Gefühle beeinflussen unsere Wahrnehmung und unsere Entscheidungen. Es muss also folglich eine Analogie geben zwischen Modalitäten des Designs und Modalitäten der Rezeption bzw. Wahrnehmung des Designten. Medien stehen daher nicht isoliert für sich und erhalten ihre Bedeutung nicht durch sich selbst, sondern interagieren durch die Beeinflussung und / oder Erzeugung von Gefühlen mit der Rezipientin oder dem Rezipienten.

Auch Farbe erzeugt Emotion, beispielhaft gezeigt anhand der Adobe-Arbeiten Josef Albers’, der das immer gleiche Sujet auf Millimeterpapier immer exakt gleich entwarf und die Formen mit variierenden Farben ausfüllte. So ließ sich untersuchen, inwieweit die Bilder bzw. die Formen durch ihre unterschiedliche Farbigkeit anders mit der Betrachterin oder dem Betrachter kommunizieren und so verschiedene Resonanzen in Rezipientinnen und Rezipienten auslösen.

Dadurch entsteht bei der Gestaltung von Medien, ob analog oder digital, eine Verantwortung für das eigene Tun. „Von l’art pour l’art zur Semiotik“, wird das Prinzip abschließend von Sauer benannt.

Anmerkung der Autorin: Andererseits ist die Kontrolle über das, was bei der Rezeption passiert, nicht wirklich gegeben, resoniert doch auch immer die Körperlichkeit bzw. der Erfahrungs- und Wissenshorizont des Rezipierenden mit, unabhängig von der gestalteten Intention beispielsweise eines Bildes oder anderen Mediums.

Prof. Dr. Jan-Henning Raff

Social Media ist immer begleitet vom Diskurs über das Wie-viel, das Wofür, das Brauchen-wir-weniger. „What for are we scrolling?“ Warum scrollen wir, und was ist Scrollen eigentlich? Genau: Wir berühren ein Stück Glas, wodurch Information an einen grafischen Prozessor übermittelt wird.

Wenn wir scrollen, bewegt sich unser Blick, ähnlich wie beim Lesen, in Sakkaden, im Wechsel mit leichten Augenbewegungen (Smooth Pursuit Eye Movement). Diese Augenbewegung wird auch Optokinetischer Nystagmus genannt und dient der Bildstabilisierung. In der Folge sollten Gestalter+innen diese Begebenheiten berücksichtigen: „Designing for the scroll“. Fun Fact: Während der Sakkaden sind wir tatsächlich blind.

Andrew McLuhan: The Past and the Future of McLuhan Studies

Andrew McLuhan ist der Enkel Herbert Marshall McLuhans, der als einer der bedeutendsten Medientheoretiker gilt – und als Visionär, der den Begriff „global village“ prägte und damit die globale Vernetzung voraussah. Sein wohl berühmtestes Zitat „The medium is the message.“ tauchte an Tag 2 tatsächlich noch in weiteren Vorträgen auf.

McLuhan gibt einen Abriss sowohl über das Schaffen Marshall McLuhans als auch über Wirken und Leben seines Vaters Eric McLuhan, der die Arbeiten Marshalls teils mit diesem gemeinsam fortführte. Dabei spart er nicht an Anekdoten über das ungewöhnliche Reiseleben, das er mit seinem Vater zusammen führte. Andrew McLuhan setzt die Arbeit seiner Vorfahren heute fort; derzeit baut er das The McLuhan Institute (themcluhaninstitute.com) auf. Mehr Info: https://www.mcluhancentre.ca

Prof. Dr. Patricia Dias, Medienforscherin: Young Children and Reading: from Paper/digital to phygital

Heutzutage kommen Kinder früh mit digitalen Medien in Kontakt, lernen und ahmen nach, was sie bei den Eltern sehen, wahrnehmen, erleben an Digitalität. Dias führt für diese Kinder den Begriff „phygital“ ein, den sie so definiert: „to be born in a digital world, without any experience of how it was before“. Phygital beschreibt die Konnektion zwischen analoger und digitaler Erfahrung, wie sie heute für Heranwachsende und Kinder selbstverständlich ist.

Es folgt ein Ausflug in die Lernforschung: Analoges Lernen auf Papier unterstützt das Memorieren und bleibt länger im Gedächtnis, während digitalgestütztes Lernen Kreativität und Social Skills fördert. Es geht nach Dias’ Auffassung nicht darum, ein entweder/oder zu forcieren, sondern darum, dass analoge und digitale Tools beide ihre Berechtigung haben, aber auch ihre Nachteile. Kinder auf einem phygitalen Lernweg zu begleiten, erfordert von Erziehenden und Lehrer+innen eine hohe Medienkompetenz, die diese nicht unbedingt mitbringen.

In der Frage, was eine gute App ausmacht, legen Eltern, Kinder und herstellende Industrie unterschiedliche Maßstäbe an. Während die Eltern dem Bildungsaspekt und der Datensicherheit hohe Relevanz beimessen, vernachlässigen sie die Kriterien Spaß und UX. Kinder hingegen legen den Fokus, genau konträr, auf Spaß und UX, und ihnen fehlt (noch) das Gespür für die Wichtigkeit von Bildung und Datensicherheit. Die Industrie wiederum wertet alle vier Kriterien sehr hoch, denn sie weiß sowohl, wie sie die Eltern, also die Käufer, ansprechen muss, als auch, was die Kinder erwarten – denn naturgemäß stehen kommerzielle Interessen dahinter.

Prof. Dr. Göran Sonesson, Lund University

Sonesson stellt die These auf, dass das Kommunikationsmodell des Menschen bis in die Gene hinein auf Konkurrenz basiert, dass aber nichtsdestotrotz ein Schlüssel für unsere (Weiter-)Entwicklung in der Fähigkeit zur Kooperation liegt. In der Kommunikation ist nicht nur das Teilen einer Wissensbasis zwischen Sender und Empfänger wichtig, sondern auch das Teilen dieser Wissensbasis mit einer größeren Gemeinschaft. So z.B., wenn ein Tier eine Spur hinterlässt. Wer ist hier der Sender – die Spur selbst? Das hinterlassende Tier? In jedem Fall braucht es eine Wissensbasis für andere Tiere, um die Spur zuzuordnen.

Und noch mehr!

Es folgten noch Vorträge von Prof. Dr. Lars Elleström von der Linnaeus University (The Role of the Body in Cognition and Signification) und von Prof. Dr. Lars Grabbe (der bereits auf der FURE 2017 fesselnd über das Lesen als Psychotechnologie und die Entstehung von Sprache und Zeichen gesprochen hat) von der MSD / Münster School of Design, die ich im Zustand akuten Hirn-Overloads nicht mehr protokollieren konnte, die mich aber dennoch begeistert haben.

Klar ist nach diesen zwei Tagen:
Mein Kopf ist voll. Ich habe unglaublich viel Input und viele Impulse mitgenommen und habe große Lust, einiges davon für mich zu vertiefen und auch anzuwenden.
Das Lesen als Kulturtechnik ist sehr im Wandel begriffen, und Gestalter sind aufgefordert, diesen Wandel mit ihren Skills und wachen Sinnen zu begleiten. Denn was wir wie gestalten und warum wir es so und nicht anders machen, hat Einfluss auf die Rezeption von Information, auf die Güte von Wissenstransfer und somit auf künftige Entwicklungen in vielen Bereichen.


Die Autorinnen

Irmi Schröer (rechts, Fotos)

ist Designerin für Digital und Print hat ein Faible für Minimalismus und schöne Typografie.

Diana Pascucci (Text)

arbeitet als Designerin für Print und Web sowie als Lektorin in Münster. Sie verliebt sich regelmäßig in Schriften, Logos und Papierklänge.

Zur Artikelübersicht

0 Kommentare zu diesem Beitrag vorhanden

Kommentar hinterlassen