Diese Seite hat zahlreiche Teilüberschriften. Bitte aufklappen.
In einer digitalisierten Welt entspricht Multimedia [lat. multus = viel] Anwendungen, die mehrerer Medien, Inhalte und Diensten der Informatik, Telekommunikation, Transportkanäle, Vermittlungssysteme benutzt (computergestützte Kombination von digitalisierten Texten, Daten, Tönen, Audio, Grafiken und Bewegtbildern, Video, interaktive Dialoge). Endgeräte sind z.B. Lautsprecher, Mikrofon, Videokamera, Scanner. Die Medieninformatik ist interdisziplinär angelegt und hat insbesondere Berührungspunkte zur angewandten Informatik, zur Medientheorie, Medienökonomie, Mediengestaltung oder Mediendidaktik.
"Multimedia" wurde 1995 zum Wort des Jahres gekürt.
Multi kommt aus dem Latein und bedeutet "viel". Medium kommt aus dem Latein und bedeutet "das in der Mitte befindliche", allg. "ein Mittel", "ein vermittelndes Element zur Verbereitung von Informationen". Ein Medium ist ein Mittel zur Darstellung und Verbreitung von Text, Grafik, Bild, Sprache, Geräusche, Musik. Die Medien wenden sich vornehmlich an die menschlichen Sinne. Jedes Medium definiert Werte in Darstellungsräumen, wie z.B.
Medien (lat.) sind Darstellungsräume und Vermittlungssysteme für Informationen aller Art (Nachrichten, Meinungen, Unterhaltung). Medien für die Darstellung und Präsentation sind Texte, Fotographie, Grafik, Animation, Video, Interaktion. Die Möglichkeiten der Massenmedien (Massenkommunikation) wurden durch neue Medien erweitert (z.B. Interaktivität). Es gibt auditive Medien (z.B. Hörfunk, CD), audiovisuelle Medien (z.B. Film, Fernsehen, Video), Printmedien (z.B. Buch, Zeitung, Zeitschrift) und multimedialen interaktiven neuen Medien. Die Informations- und Kommunikations- Technologien bewirken einen gesellschaftlichen, ökonomisch - technischen Wandel hin zur Informationsgesellschaft. Gegenüber dem deklarativen Wissen (know - what) wird das prozedurale Wissen (know - how) immer wichtiger. Neben neuen Arbeits-, Organisations- und Qualifikations - Formen entstehen auch neue Schlüsselqualifikationen.
Zu den Chancen und Risiken dieser Informations- und Kommunikationstechnologien sagt die Enquête-Kommission "Entwicklung, Chancen und Auswirkungen neuer Informations- und Kommunikationstechnologien in Baden-Württemberg" (aus dem Vorwort des Enquêteberichts):
"Unsere Gesellschaft weiß oder ahnt zumindest, daß die neue Informations- und Kommunikationstechnik ihr gewohntes Leben geradezu revolutionär verändern kann. In einer geordneten Gemeinschaft mit ihren mühsam errungenen und immer wieder bedrohten Besitzständen erzeugt diese Erwartung zunächst eher Unsicherheit und Unruhe. Deshalb muß die Akzeptanz derart umwälzender Technologien erst im öffentlichen Diskurs errungen werden. Akzeptanz setzt Akzeptabilität voraus. Die Menschen müssen nach Abwägung der erkennbaren Wirkungen davon überzeugt sein, daß die Möglichkeiten, die aus solchen technischen Innovationen erwachsen, für sie nützlich sein können. Die Enquetekommission hat mit ihrem gemeinsam getragenen Bericht einen wichtigen Beitrag zur gesellschaftlichen Konsensbildung geleistet. Es ist gelungen, die Erkenntnisse und Erfahrungen aus den unterschiedlichen beruflichen Lebenswelten ihrer Mitglieder so zusammenzubringen, daß am Ende gemeinsam getragene Bewertungen und Empfehlungen entstehen konnten. Der Enquetekommission ist es ein wichtiges Anliegen, diese gesellschaftliche Konsensbildung in einem organisierten öffentlichen Diskurs fortzusetzen und in öffentlicher und privater Partnerschaft die begonnenen Projekte erfolgreich weiterzuentwickeln und neue Anregungen aufzunehmen ...
Multimediaproduktionen unterliegen dem Urheberrecht.
Auf allen Ebenen sind Erneuerungen und Umbrüche erkennbar (technische und organisatorische Möglichkeiten, Informationstechnologien, Individualkommunikation, Bildtelefon oder Telefax, Kabel- und Satellitenfernsehen Videotext, das Abrufen von Texten, Nachrichten, Wettervorhersagen, Sportmeldungen, Videokonferenzen, Büro- und Wissenschaftskommunikation, Benutzeroberflächen Austausch von Texten, Bildern, Audio- und Videosequenzen, usw.)
Anwendungen | ||||||
Anwender- Nutzung | Lernen | Design | Benutzer- schnittstelle | |||
Dienste | Inhalts- Analyse | Doku- mente | Sicherheit | ... | Synchronisation | Gruppen- Kommuni- kation |
Software- Hardware- Systeme | Datenbanken | Programmierung | ||||
Medien-Server | Betriebssysteme | Kommunikation | ||||
Optische Speicher | Dienstgüte | Netze | ||||
Wissen- schaftliche- technische Grundlagen | Rechner- Architektur | Kompression | ||||
Bilder Grafik | Animation | Video | Audio (Musik, Sprache) |
Multimedia-Aspekte | |
Pädagogische Aspekte |
Die parallele Präsentation von zusammengehörenden Inforamtionen
mit verschiedenen Medien kann die Wissensaufnahme erleichtern.
Kommen Informationen über verschiedene Sinnesorgane (Kanäle),
so kann es "Synergien" geben (naive Summentheorie nach Bernd Weidenmann).
Die Erstellung von Lehr- und Lern - Produkten erfordert vielfach eine Evaluation der Lehr - Darbietung und eine neue Strukturierung der Inhalte. Multimedia ist nicht auf eine bestimmte Lernpsychologie (Behaviorismus, Kognitivismus, Konstruktivismus) festgelegt. Modernes Edutainment zeichnet sich durch Aufmerksamkeitslenkung, Motivation, Erziehung zur Exaktheit, sofortige Korrektur und Hilfe, Grad der Anonymität, individualisiertes Lernen, Selbstvergleich und Lernkontrolle, Zeitersparnis, Interaktivität, Flexibilität, Wiederholbarkeit der Lernschritte, Feedback, Adaptivität und projektorientiertes Lernen aus. |
Technologische Aspekte | Bei hinreichender Rechnerleistung (Geschwindigkeit, Speicherkapazität, Ausführungsgeschwindigkeit) können Multimedia - Produkte entwickelt, netz-weit verteilt und benutzt werden. Die Multimedia - Anwendungen werden in der Ausbildung, Beruf, Weiterbildung, Werbung, Unterhaltungsindustrie, usw. eingesetzt. Trotz der Vortschritte bei Rechen- und Speicherkapazitäten und der Ausführungsgeschwindigkeiten werden Kompressionsverfahren z.b. für Bild- (gif/jpg), Ton- (mp3) und Video- (mpeg/avi) Verarbeitung benötigt. |
Interaktive Aspekte | Der interaktive Aspekt von Multimedia ermöglicht dem Betrachter eine individuell zugeschnittene Wissensvermitttlung sowie die erfahrungsorientierte Aufnahme von Inhalten. Diese Vorteile werden insbesondere durch Lernprogramme (E-Learning, Computer Based Training) erschlossen. Die vielfältige Medien-Erstellung soll mit Autoren-Software vereinfacht und verbesserter werden. Die Entwicklung und Produktion von Multimedia - Anwendungen erfolgt i.a. in kleinen Gruppen, die eine informationstechnische und institutionelle Infrastruktur benötigt (Fachpersonal, Multimedia - Labor). Der interaktive Aspekte zeigt sich z.b. bei Video - Konferenzen, Stereo Graphics mit Brille, Simulation technischer Vorgänge, usw. |
Kunst Aspekte | Mit dem Multimedia-Möglichkeiten hat sich auch zu eine eigene, digitale Kunstform entwickelt, die auch Einfluss auf die kommerzielle Entwicklung von neuen Inhalten hat. Künstlerische Multimedia-Referenzwerke gibt es seit etwa 1993 (Peter Gabriel,Laurie Anderson, Pipilotti Rist). |
Multimedia kann unterhaltend sein, die Motivation zum Lernen und Wissenserwerb erhöhen, und den Anschein von Realitätsnähe haben und zu einer oberflächlichen Rezeptionsweise verführen, was einem tieferen Verständnis abträglich ist.
Die "Mediendidaktik" hat zurück liegende Wurzeln wie z.B. Johann Amos Comenius (Jan Ámoš Komenský, 1592-1670). Comenius verstand die Schöpfung als einen Prozess, der aus gestaltloser Einheit in Gott zur gottgeschaffenen, gottferneren Mannigfaltigkeit der Welt führt und dann zurück zur göttlichen Einheit im Licht führt und entwickelte in der "Großen Didaktik" Erziehungsziele und -methoden für den Aufbau eines Schulsystems für Kindheit und Jugend (allgemeine Schulpflicht, muttersprachlichen Unterricht). Schule soll in gelöster Atmosphäre grundlegend "allen alles" lehren etwa 7.-12. Lebensjahr: Muttersprachschule, 13.-18. Lebensjahr: Lehre oder Lateinschule, 19.-24. Lebensjahr: Akademie. Sein Werk: "Die sichtbare Welt in Bildern" gilt als Ahnherr aller Kinderbilderbücher und erste Enzyklopädie für Kinder. Sein pädagogisches Hauptwerk ist die Didactica magna (Große Unterrichtslehre), die bis heute zu den Standardwerken der Didaktik zählt. Pädagogik ist für ihn die Kunst, allen alles lehren zu können. Als Lernprinzipien gelten: Lernen durch Tun, Anschauen geht vor sprachlicher Vermittlung, Muttersprache vor Fremdsprache, das eigene Vorbild vor die Worte. Comenius forderte in seiner Schrift "E Scholasticis Labyrinthis Exitus in planum" unter anderem: | |
Also sollen auch die Schulen alles
den eigenen Sinnen der Lernenden darbieten:
damit sie alles selbst
sehen, hören, riechen, schmecken, berühren,
was gesehen und erfahren werden kann.
Wahrscheinlich geht auf Aussagen von Comenius
(Begründers der Mediendidaktik) die naive Summentheorie zurück
(kausalen Zusammenhang zwischen Lerneffekt,
Medienvielfalt und Medienmenge),
die von dem Psychologen Bernd Weidenmann heftig kritisiert wird.
Interaktive Aspekt von Multimedia ermöglicht
eine individuell zugeschnittene Wissensvermitttlung
und eine erfahrungsorientierte Aufnahme von Inhalten
(E-Learning, Computer Based Training).
|
Die Informationstechnologien richten sich an die Sinne des Menschen. Technischen Entwicklungen sind auf den Menschen ausgerichtet und versuchen in geeigneter Form diese anzusprechen (Bildtelefon oder Telefax, Kabel- und Satellitenfernsehen, Videotext, das Abrufen von Texten, Nachrichten, Wettervorhersagen, Sportmeldungen, Videokonferenzen, Büro- und Wissenschaftskommunikation, Benutzeroberflächen, Austausch von Texten, Bildern, Audio- und Videosequenzen, usw.). Multimedia-Anwendungen versuchen die Vielfalt der Sinne des Menschen geeignet einzubeziehen.
In zahlreichen Gebieten vermehren sich die Multimedia - Anwendungen (Informationssysteme, Telekommunikation, lokale Netze, Informationsmanagement, Mensch - Maschine - Kommunikation, Medizinische diagnostische und therapeutische Verfahren, Simulation technischer Vorgänge, Präsentationstechniken, Mustererkennung, Bildverarbeitung, Kommerzielle Anwendersysteme, Softwaretechnik).
Einige Schlagworte sind
|
Typische moderne Multimedia - Lehr- und Lern - Formen hängen mit den
folgenden Gebieten zusammen:
|
Abkürzung für Computer Based Training. Es gibt zahreiche Abkürzungen, die ähnliche Sachverhalt wiedergeben:
Die Begriffe Instruction, E-Learning (Michael Kerres) und Training häufig werden oft synonym verwendet. Der Unterschied eines computergestützten sowie eines computerunterstützten Systems wird durch die englischen Begriffe Computer Assisted und Computer Based bzw. Computer Aided ausgedrückt. Zum Teil werden noch einge ganze Reihe weiterer Abkürzungen verwendet (CAI, CAL, CAT, CBI, CBL, CBT = Computer Based Training, WBT = Web Based Training, Virtuelles Klassenzimmer) verwendet. Dieser Artikel geht speziell auf di
Computer Based Training-Systeme, d.h. computerbasierte Lehr-/Lernsysteme stellen eine Ergänzung zu traditionellen Lernmitteln dar und können komplexe medizinische Sachverhalte durch Verbindung von Text, Bild, Ton, Video und Animation besonders gut veranschaulichen. Entsprechend dem Grad an Interaktivität zwischen CBT-System und Anwender werden unterschieden:
Der Begriff CBT-System wird bewusst verwendet, um anzudeuten, dass medizinische Lernprogramme manchmal spezielle Hardware benötigen, um überhaupt lauffähig zu sein. Mit dem Begriff System wird dieser Sachverhalt ausgedrückt.
Akustik ist die Lehre vom Schall.
Der Begriff Schall kommt vom althochdeutsch scal und gehört zu scellan ( tönen, lärmen). phon... (phono...) ist griechisch und bedeutet schall..., laut..., ton... Phonographie (Schall|aufzeichnung) ist die Speicherung von Schallvorgängen auf einem Träger, wobei Mikrofone (Sensoren) die Schallvorgänge in elektrische Signale umwandeln.
In der Antike glaubten die Griechen, die Musik repräsentiere die angewandten Zahlen. Die Pythagoreer entdeckten, daß zu einer Oktave ein Saiten-Längen-Verhältnis 1 : 2 gehört. Harmonien wurden bei ganzzahligen Frequenzverhältnissen erwartet.
Ab dem 16.Jahrhundert wurden systematische, wissenschaftliche Experimente durchgeführt. Im Jahr 1660 zeigte Robert Boyle, dass die Ausbreitung des Schalles an ein gasförmiges, flüssiges oder festes Medium gebunden ist. Die mathematische Beschreibung der Theorie vom Schall begann mit dem englischen Mathematiker und Physiker Isaac Newton. Sein epochales Werk trug den Titel "Philosophiae Naturalis Principia Mathematica" (Mathematische Prinzipien der Naturphilosophie) und erschienen 1687. Newton zeigte, dass die Ausbreitung des Schalles in einem fluiden Medium nur von den physikalischen Eigenschaften dieses Mediums abhängt (Dichte und vom Elastizitätsmodul).
Im 16. bis 18. Jahrhundert wurden mit Echo-Zeitmessungen (Marin Mersenne ) die Schallgeschwindigkeit ermittelt.
Das 18.Jahrhundert wurde die Theorie des Schalles ausgebaut. Die Infinitesimalrechnung erwies sich als leistungsfähiges Verfahren. Die französischen Mathematiker Jean le Rond d'Alembert und Joseph Louis Lagrange sowie der holländische Mathematiker Johann Bernoulli und der Schweizer Mathematiker Leonhard Euler lieferten in diesem Zusammenhang die mathematischen Grundlagen. 1822 konnte Jean-Baptiste Joseph Fourier die harmonische Analyse des Schalles durchführen. Der italienische Geiger Giuseppe Tartini entdeckte 1740 die Schwebungen. Im 19. Jh. wurden Geräte wie das Stroboskop, das Stethoskop und die Sirene entwickelt. Der Physiker Johann Heinrich Scheibler nahm 1834 exakte Frequenzmessungen vor und ordnete dem Ton a1 (Kammerton A) die Frequenz 440 Hertz zu. Dadurch wurde ein einheitlichen Musik-Standard für die Tonhöhe eingeführt.
Telefon und Mikrophon sowie verschiedene Arten von Plattenspielern wurden erfunden.
Mit elektronische Oszillatoren können Wellen verschiedenster Form erzeugen werden. Diese lassen sich mit elektromagnetischen oder piezoelektrischen Effekten in hörbaren Schall umwandeln. Umgekehrt kann ein Mikrophon Schallwellen in elektrische Wellen umwandeln.
Für militärische Zwecke wurde im 2.Weltkrieg das Sonar entwickelt, das heute zur Untersuchung von Meeresströmungen und -schichten sowie zur Untersuchung des Meeresbodens verwendet wird.
Beim Umgang mit technischen Einrichtungen werden menschlichen Sinnesorgane benötigt (z.B. Hören, Schall, Schallwellen, Wellenausbreitung als physikalische Grundlage für die Beschreibung audiovisueller Szenen; oder Sehen, Licht, elektromagnetische Wellen, Wellenlänge = 380...780 nm;)
Die Ausbreitung von elektromagnetischer Wellen in Luft, Glas, Vakuum mit den Eigenschaften: hochtransparent, keine Absorption der Lichtenergie; isotrop, gleiche Ausbreitungsbedingungen in alle Richtungen; nicht magnetisch; quellenfrei; linear, alle Eigenschaften hängen nicht von der Intensität ab. Schallwellen können reflektiert und gebrochen werden, auch Beugung und Interferenz lassen sich unter geeigneten Bedingungen nachweisen. Bei der Ausbreitung von Schall hängt die genaue Form eines Schallfeldes von den Anfangsbedingungen, den Randbedingungen, den Schallquellen ab.
Hier einige historische Daten zu Schalluntersuchungen und zu elektromagnetische Wellen:
Schallwellen | |
570-497 v.Chr. | Pythagoras: Zusammenhang zwischen Tonhöhe und Saitenlänge |
1452-1519 | Leonardo da Vinci: Schall als Luftschwingung |
1636-1638 | M. Mersenne,Galileo Galilei: Zusammenhang zwischen Tonhöhe und Frequenz |
1629-1695 | Ch. Huygens: Huygenssches Prinzip |
1788-1817 | A. Fresnel: Beugung von Schallwellen |
1821-1894 | H. von Helmholtz: Spektralanalyse mit Resonatoren |
1877/78 | Lord Raleigh: "Theory of Sound, theoretische Grundlagen der Akustik |
1868-1919 | W. Sabine: Grundlagen der Raumakustik |
1863-1923 | A. Webster: Theorie akustischer Hörner |
Elektromagnetische Wellen | |
1669 | I. Newton; Korpuskulartheorie, Licht als Teilchenstrom |
1677 | Ch. Huygens: Wellentheorie, Licht als Wellenvorgang |
1802 | Th. Young: Beweis der Wellentheorie anhand von Beugungserscheinungen |
1871 | J. Maxwell: Maxwellsche Gleichungen, Licht als elektromagnetische Wellenvorgang |
1888 | H. Hertz: Experimenteller Nachweis elektromagnetischer Wellen |
1900 | M. Planck: Quantentheorie |
1926 | E. Schrödinger: Wellenmechanik, Dualismus Welle-Teilchen |
Pythagoras(ca.570-500 v.Chr.) suchte die Harmonien in den Gewichtsverhältnissen ( Saitenspannungen) zu ergründen (hier abgebildet: Pythagoras, Erforscher der Harmonie. Italienischer Holzschnitt, 1492). Die Pythagoreer glaubten an "zahlreiche" Mysterien (mathematische Ordnung der göttlich geschaffenen Welt, symbolische Deutung von Quadrat- und Primzahlen, Proportionen kenzeichnen die Ordnung und Harmonie des Universums, Erde als Kugel, Intervalle von Planeten-Entfernungen entsprechen harmonischen Klängen von Saiten). | |
Wellengleichung | Lösung |
x = Ort, t = Zeit, c = Ausbreitungsgeschwindigkeit, p(x,t) = Schalldruck | mit Randbedingunge: p(0,t) = p(l,t) = 0 wird p(x,t) = p[0]*exp(i*2pi*f*t)*sin(m*pi*x/l); m=1 (blau), m=2 (grün), m=3 (rot) |
Mechanische Schwingungen (eines materiellen elastischen Mediums) können die umgebenden Luftmoleküle in Bewegung bringen und damit Luftschwingungen erzeugen. Schwingungen im Frequenzbereich zwischen 16 Hz und 20000 Hz werden als Hörschall bezeichnet.
Die genaue Form eines Schallfeldes hängt von Anfangsbedingungen, Randbedingungen, Schallquellen ab.
Schwingungen unterhalb des Hörbereichs (< 16 Hz) heißen Infraschall, oberhalb ca. 20 kHz Ultraschall. Bei Frequenzen über etwa 1 MHz spricht man von Hyperschall. Ultraschallwellen werden in der Medizin und zur zerstörungsfreien Werkstofprüfung benutzt.
Der Hörschall kann durch eine mechanische Schwingungen ( Schallschwingungen) erzeugt werden. Die Schallwellen können in einem materiellen elastischen Medium weitergeleitet werden.
Schall wird in die folgenden Frequenzbereiche unterteilt:
Infraschall: 1 Hz - 16 Hz Hörschall : 16 Hz - 20 kHz Ultraschall: 20 kHz - 1 MHz Hyperschall: 1 MHz - 100 MHz
Die periodisch von ihrer Erregungsquelle ausgehenden Schwankungen der Massendichte können sich als Schallwellen ausbreiten. Das Echolot ( Schiffsortung) benutzt Infraschall und Hörschall zur Bestimmung der Meerestiefe. Die zerstörungsfreie Werkstoffprüfung benutzt den Ultraschall, die medizinische Diagnostik den Hyperschall.
Schallwellen (Schall) breiten sich in einem Medium aus. In Gasen
und Flüssigkeiten treten nur longitudinale Schwingungen auf (
periodische Druck- und Dichteänderungen), in festen Körpern
longitudinale oder transversale Schwingungen der Gitterbausteine um
ihre Ruhelage Die Schallgeschwindigkeit in anisotropen Kristalle hängt
von der Ausbreitungsrichtung ab. Der Wert der Schallgeschwindigkeit
hängt von den Deformationseigenschaften des Ausbreitungsmediums ab (
ändert sich u.a. in Gasen mit dem Druck, der Dichte und der Temperatur
). Die Schallgeschwindigkeit für Luft bei 15ºC (Bodennähe) beträgt
etwa 340m/s, bei 50ºC (10000 m Höhe) etwa 300m/s. Flugzeuge, die mit Überschall fliegen bilden den Machschen Schall-Kegel. Die Mach-Zahl entspricht dem Quotienten der aktuellen Geschwindigkeit zur Schallgeschwindigkeit in Luft. |
Hörbarer Schall wird duch die Luft weiter geleitet. Im Jahre 1660 hängte Robert Boyle eine Glocke in einen (beinahe) luftleeren Raum und konnte zeigen, daß die Schallausbreitung ein Medium (Luft) benötigt. Die Verdichtung / Verdünnung der Luftteilchen pflanzt sich wellenförmig fort. Die Schall-Geschwindigkeit c [ m/s] hängt mit der Frequenz f [ Hz = 1/s ] und der Wellenlänge λ [ m ] gemäß
c = f . λ
zusammen. Bei 20° Celsius (T = 293° Kelvin) ist die Schall-Geschwindigkeit in Luft c = 331.5* sqrt(T / 273) m/s = 343 m/s, näherungsweise:
c = 331.4 + 0.6 * °Celsius [m/s] in Luft
Gas = | Air | Air | Hydrogen | Carbon dioxide | Helium | Water vapor |
---|---|---|---|---|---|---|
Temperature (°C) = | 0 | 20 | 0 | 0 | 20 | 35 |
Speed c in m/s = | 331.5 | 344.0 | 1270.0 | 258.0 | 927.0 | 402.0 |
In flüssigen oder festen Stoffen ist die Ausbreitungs-Geschwindigkeit für
Schallwellen grösser. Für dünne, stabförmige Festkörper gilt c = sqrt (
Elastizitätsmodul / Dichte).
Mit
Schall-Leistung P [ W ], Schall-Druck p [ N/m^2 ],
Schall-Intensität I [ W/m^2 ], Auftreff-Fläche A [ m^2 ]
ist
P = I . A mit I = p^2 / c / ???
Bei 20° Celsius ist die Dichte von Luft = 1.19 kg/m^3 und c = 343 m/s
und somit die Zahlengleichung
I = p^2 / 408 mit p in [ N/m^2 ] , I in [ W/m^2 ]</td>
Die Schallintensität ist proportional zum Schalldruck.
Schallwellen können an Oberflächen reflektiert werden (Echo, Parabel-Fläche mit Quelle im Brennpunkt, Ellipsen-Fläche mit Mikro im Brennpunkt). Manche Materialien reflektieren nur einen geringen Schallanteil (Schallabsorption). Schallwellen können an Hindernissen gebeugt werden, besonders bei tiefen Tönen.
Bewegt sich eine Schallquelle (Frequenz f) mit der Geschwindigkeit v auf den Beobachter zu, so registriert der Beobachter eine geänderte Frequenz fb:
fb = f / (1 - v/c)
Beispiele: c = Geschw. der Schallausbreitung = 340 m/s
v in m/s : 0.0 | 5.6 | 27.8 | 83.3 | v in km/h : 0.0 | 20.0 | 100.0 | 300.0 | fb/f : 1.0 | 1.02 | 1.09 | 1.32 |
Der Schall breitet sich von der Quelle (bei gleichmäßiger Dichte des Mediums) geradlinig aus. Auf die Brechung ist es u.a. zurückzuführen, dass man mit dem Wind besser hören kann als gegen den Wind. Die Windgeschwindigkeit ist in großen Höhen allgemein viel größer als nahe am Erdboden. Daher wird eine Schallwelle, die sich schräg nach unten in Windrichtung ausbreitet, zum Boden hin und eine gegen den Wind gerichtete Welle vom Boden weg gebrochen. Schallwellen unterliegen ebenso der Reflexion, und es gilt auch hier das allgemeine Gesetz, dass der Reflexionswinkel gleich dem Einfallswinkel ist.
Auf der Schallreflexion beruht die Erscheinung des Echos. Beim Sonar wird die Reflexion von Schallwellen im Wasser ausgenutzt. Ein Megaphon hat die Form eines Trichters; an dessen Wänden werden die weiter nach außen gerichteten Schallwellen nach innen reflektiert, so dass der abgestrahlte Schall in der gewünschten Richtung stärker gebündelt wird. Ein Hörrohr ist ein in umgekehrter Richtung verwendeter Trichter.
Beim Schall gibt es auch das Phänomen der Interferenz.
Huygenssches Prinzip (1690): Jeder von einer Wellenbewegung erfasste Punkt wird selbst zum Ausgangspunkt einer Kugelwelle: |
Die Nachhall - Zeit gibt die Dauer an, in der die Intensität um -60 dB ( dezi - Bell) abgesunken ist. Aus
L := 20 * lg (I / I0) = -60 folgt I / I0 = 1 / 1000Der Nachhall-Anteil von 0.1 % wird nicht störend wahrgenommen.
Für klassische Musik ist eine längere Nachhall-Zeit wohlklingender. Dagegen sollen Räume für Pop-Musik-Darbietungen kürzere Nachhall-Zeiten haben. Bei Sprache ist Nachhall stets ungünstig.
Die Empfindungsschwelle p0 für das Gehör ist festgelegt zu p0 := 2*10^5 N/m/m bei 1000 Hz. Ein Schalldruck p ergibt die Lautstärke L [ phon ]
L := 20 * lg (p / p0)Die Lautstärke wird in phon oder dB gemessen. An der Schmerzgrenze ist der Schall etwa 10^9 mal größer als der schwächste, gerade noch hörbare Schall.
Lautstärke
[ phon = dB ]
Unter der Dynamik D [ dB ] verstehen wir
D := 10 lg (Pmax / Pmin) = 10 lg (Imax / Imin) = 20 lg (pmax / pmin)
wobei Pmax [ W ] die maximale Schalleistung und pmax der maximale
Schalldruck [ N/m^2 ] ist.
Wirken gleichzeitig mehrere gleichartige Schall - Quellen Li, so ergibt
sich die gesamte Lautstärke Lges zu:
Lges = 10 . 10^(Li/10)
Harmonische Welle y(t) :=
a . sin(2.π.f.t) mit Amplitude a = 1 und den Oktav-Frequenzen f = 110, 220, 440, 880 Hz | |
f=110 Hz T=1/110 sec | |
f=220 Hz T=1/220 sec | |
f=440 Hz T=1/440 sec Kammerton a | |
f=880 Hz T=1/880 sec | |
Frequenz-Spektrum bei f = 110, 220, 440, 880 Hz | |
Amplituden = 1 |
Harmonische Welle y(t) :=
a . sin(2.π.f.(t-t[0])) a = 1, f = 110 Hz | |
t[0]=0.000 sec | |
t[0]=0.001 sec | |
t[0]=0.002 sec | |
t[0]=0.003 sec |
Harmonische Welle mit
Ein- Ausschwingen y(t) := a . exp(- t.t.k) . sin(2.π.f.t) a = 1, f = 110 Hz, k=10000 | |
Hüllkurve exp(- t.t.k) | |
genähertes Spektrum | |
f= 209.4, a=0.12 f= 418.8, a=0.20 f= 628.2, a=0.30 f= 837.6, a=0.20 f=1047.0, a=0.12 |
Werden 2 Töne mit den Frequenzen f1, f2 durch ein nichtlineares Übertrgungsmedium beeinflußt, so entstehen Kobinationstöne mit den Frequenzen m . f1 + n . f2 und m . f1 - n . f2.
Bei der Schwebung liegen die beiden Frequenzen f, (f+df) eng beieinander. Die Summe der beiden sin()-Funktionen sin(f), sin(f+df) kann zerlegt werden. Der Faktor cos(π.df.t) entspricht einer Änderung der Amplitude und df ist die Schwebungsfrequenz.
sin(2.π.f.t) + sin(2.π.(f+df).t) = cos(π.df.t) . 2.sin(2.π.(f + df/2).t)
Es ist:
sin(2.π.f.t) + sin(2.π.(n.f+df).t) = sin(2.π.f.t) + sin(2.π.n.f.t).cos(2.π.df.t) + cos(2.π.n.f.t).sin(2.π.df.t)
Das folgende Beispiel zeigt die Überlagerung von y1(t), y2(t) zu y1(t) + y2(t). Die Frequenzen sind f1=440 Hz, f2 = 907.5 = 880 + 27.5 = 2.440 + 440/16 Hz.
Schwebung von Harmonische Wellen | |
y1(t)=a1.sin(2.π.f1.t) y2(t)=a2.sin(2.π.f2.t) a1 = 1.00, f1 = 440.0 Hz, a2 = 0.38, f2 = 907.5 Hz | |
y1(t) + y2(t) = |
Werden 2 Töne mit den Frequenzen f1, f2 durch ein nichtlineares Übertrgungsmedium beeinflußt (modeliert), so entstehen Kobinationstöne mit den Frequenzen m . f1 + n . f2 und m . f1 - n . f2.
Achtung!
Die Schwebung sollte nicht mit der Modulation verwechselt werden.
Stimmgabel | Flöte |
Harmononische, reine Schwingungen mit Frequenzen zwischen etwa 16 und 20000 Hz werden als Ton, periodische, aufeinander abgestimmte sinusförmige Schwingungen als Klang, unregelmäßig überlagerte Schwingungen als Geräusch empfunden.
Musik kann den Intellekt "tunneln" und unittelbar in der Psyche wirken. Der Klangeindruck einer akustischen Darbietung hängt von vielen Faktoren ab: der Lautstärke, den Tonhöhen, der Anzahl von Ereignisse, der Schallrichtung, dem Nachhall, usw.
Einflußfaktor (Anzahl von ...) | ||
Anzahl der gleichzeitig auftreffenden Ereignisse hat Einfuß auf | Klangfülle | Schallquellen |
Instrumente | ||
Sprecher | ||
Geräusche | ||
Klangfarbe | Obertöne | |
Nebengeräusche bei der Schallerzeugung | ||
Richtungs-, Entfernungs- und Raum- Effekte | Unterschiede in der Laufzeit zwischen den Quellen | |
Unterschiede in der Itensität zwischen den Quellen |
Ein Signalverlauf kann auf unterschiedliche Weise betrachtet werden. Die Kurve x(t) stellt den Signalverlauf über der Zeit dar. Solche Diagramme zeigen, wie sich das Signal mit der Zeit ändert. Eine andere Darstellung ist, das Signal durch die darin entahltenen Frequenzen darzustellen. Dies entspricht einer Zerlegung des Signales x(t) in harmonische Anteile, wie z.B.
mit ω[k] =
2.π.f[k] sind die Frequenz-Komponenten: harm( a, f[k], φ) = a.cos( f[k].t + φ ) |
Ein Spektrum ist ein Diagramm, bei dem die Amplituden a über den Frequenzen f aufgetragen sind. Periodische Signale führen zu Komponenten mit ganzzahligen Frequenzen f[k] = k.f[1].
Die digitale Fourier-Transformation soll anschaulich erklärt werden. Zur Vereinfachung sollen lediglich anz=5 Samples pSrcX[k] mit k=0,1,2,3,4 vorliegen. Ein Kreis wird in 5 Sektoren eingeteilt. Die Winkel sind w[i] = i*2*π/5 mit i=0,1,2,3,4. Die x-Komponenten der Punkte P[i]( cos[i], sin[i]) auf dem Einheitskreis sind cos(w[i]).
i = | 0 | 1 | 2 | 3 | 4 | Summe |
cos[i]= | 1.000000 | 0.309016 | -0.809016 | -0.809016 | 0.309016 | 0.000000 |
sin[i]= | 0.000000 | 0.951056 | 0.587785 | -0.587785 | -0.951056 | 0.000000 |
Die folgende Skizze zeigt die Kreispunkte und die x-Komponenten.
Betrachtung der x-Komponenten Samples : pSrcX[k] mit k=0,1,2,3,4 Einheitskreis: w[i] = i*2*π/5, cos(w[i]) <hr> Rechnung : Start : x = 0.0; Summation: x = x + cos(w[i]) * pSrcX[k] für ein j jeweils über alle k ergibt x[j] |
Die anz=5 Samples pSrcX[k] werden jeweils anz=5 mal mit unterschiedlichen cos(w[i]) multipliziert.
j = | 0 | 1 | 2 | 3 | 4 | |||||||||||||||||||||||||
k = | 0 | 1 | 2 | 3 | 4 | 0 | 1 | 2 | 3 | 4 | 0 | 1 | 2 | 3 | 4 | 0 | 1 | 2 | 3 | 4 | 0 | 1 | 2 | 3 | 4 | |||||
i = k * j % anz = | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 2 | 3 | 4 | 0 | 2 | 4 | 1 | 3 | 0 | 3 | 1 | 4 | 2 | 0 | 4 | 3 | 2 | 1 | |||||
Start mit x := 0.0; y := 0.0;
Dann summiere für ein j
( jeweils über alle k )
x := x + cos[i] * pSrcX[k] ;
y := y + sin[i] * pSrcY[k] ;
ergibt x[j]
|
Die Produkte werden summiert und ergeben die x-Komponente der Spektralkomponente ( Fouriertransformierte ).
Zum Verständnis ist es günstig, die 5 Partialsummen für jeden j-Werte zu bilden.
Es liegen z.B. anz = 256 Sound-Samples vor. Das komplex Fourier-Spektrum soll berechnet werden. Das folgende Verfahren ist wegen den vielen sin(), cos()-Berechnungen für eine größere Sample-Anzahl zu langsam. Das Verfahren soll lediglich den Kern der komplexen Fourier-Transformation beschreiben. Es werden eindimensionale double-Array verwendet, die global seien und z.B. gemäß
double * p = ( double * ) calloc( anz, sizeof( double ) );
allokiert wurden. Die Freigabe des Speichers sollte an geeigneter Stelle mit free( p ) erfolgen. In den double-Array pSrcX sind anz = 256 double-Samples enthalten und alle 256 Elemente des double-Arrays pSrcY seien 0.0. Es werden 2 globale Tabellen mit den berechneten cos( ), sin( )-Werten benötigt, die z.B. gemäß
// Berechnung der Hilfarrays pCos[ ], pSinY[ ] int k ; double w = 0.0 ; double dw = 2.0 * π / anz ; for ( k = 0 ; k < anz ; k ++, w += dw , pCos ++ , pSin ++ ) { * pCos = cos( w ) ; * pSin = sin( w ) ; }
berechnet werden können.
// Fourier-Algorithmus ( in: anz, pSrcX[ ], pSrcY[ ]; out: pDstX[ ], pDstY[ ] ) double x, y, Cos, Sin ; int i, j, k ; if ( typ == FT_SPECTRUM2TIME ) { for ( j = 0 ; j < anz ; j ++ ) { pSrcX[j] /= anz ; pSrcY[j] /= anz ; } } for ( j = 0 ; j < anz ; j ++ ) { x = y = 0.0 ; for ( k = 0 ; k < anz ; k ++ ) { i = k * j % anz ; Cos = +pCos[ i ] ; Sin = -pSin[ i ] ; if ( typ == FT_SPECTRUM2TIME ) Sin = -Sin ; x += Cos * pSrcX[k] - Sin * pSrcY[k] ; y += Sin * pSrcX[k] + Cos * pSrcY[k] ; } pDstX[ j ] = x ; pDstY[ j ] = y ; } }
Dieser Algorithmus berechnet aus den anz=256 Sample-Werten pSrcX[k] = Sample[k], pSrcY[k] = 0.0 das komplexe Spektrum pDstX[k], pDstY[k]. Die k-te Amplitude amplitude[k] ist dann
Amplitude[k] = sqrt( pDstX[k]*pDstX[k] + pDstY[k]*pDstY[k] )
Die Umkehrtransformation ermittelt aus dem Spektrum die Samples. Zur Berechnung der Umkehrtransformation sind alle Werte des Spektrums in die Source-Arrays zu kopieren ( pSrcX[j] = pDstX[j], pSrcY[j] = pDstY[j] ) und mit ( typ == FT_SPECTRUM2TIME ) sollten sich dann in pDstX[j], pDstY[j] die ursprünglichen Samples ( bis auf Rundungsfehler ) ergeben.
<script type="text/javascript">/*<![CDATA[*/ function cos_tab ( anz ) { var k, C=[], w = 0.0, dw = 2.0 * Math.PI / anz ; for (var k = 0 ; k < anz ; k ++, w += dw ) { C[k] = Math.cos( w ) ; } return C; } function sin_tab ( anz ) { var k, S=[], w = 0.0, dw = 2.0 * Math.PI / anz ; for (var k = 0 ; k < anz ; k ++, w += dw ) { S[k] = Math.sin( w ) ; } return S; }
// Geg. Samples (Daten) var SrcX = [20, 40, 50, 30, 20, 10, 40, 50]; var SrcY = [ 0, 0, 0, 0, 0, 0, 0, 0]; //var typ = 'TIME2SPECTRUM'; //vorwärts //var typ = 'SPECTRUM2TIME';//rückwärts function fourier_algorithmus ( SrcX, SrcY, typ ) { var i, j, k, x,y, c,s, DstX=[], DstY=[]; var anz = Math.min(SrcX.length, SrcY.length); var Cos = cos_tab(anz), Sin = sin_tab(anz); if ( typ == 'SPECTRUM2TIME' ) { for ( j = 0 ; j < anz ; j ++ ) { SrcX[j] /= anz ; SrcY[j] /= anz ; } } for ( j = 0 ; j < anz ; j ++ ) { x = y = 0.0 ; for ( k = 0 ; k < anz ; k ++ ) { i = k * j % anz ; c = +Cos[i] ; s = -Sin[i] ; if ( typ == 'SPECTRUM2TIME' ) s = -s ; x += c * SrcX[k] - s * SrcY[k]; y += s * SrcX[k] + c * SrcY[k]; } // DstX[j] = x; DstY[j] = y; DstX[j] = x.toFixed(1); DstY[j] = y.toFixed(1); } return [DstX,DstY]; }
var dst = fourier_algorithmus ( SrcX, SrcY, 'TIME2SPECTRUM' ); var src = fourier_algorithmus ( dst[0], dst[1], 'SPECTRUM2TIME' ); var br = "<br />"; var ss = "DstX="+dst[0] +br+"DstY="+dst[1] +br+br + "SrcX="+src[0] +br+ "SrcY="+src[1] window.onload = function() { document.write(ss); } /*]]>*/</script>
Ausgabe:
DstX= 32.5, 4.425 , -6.25, -4.425, 0.0, -4.425, -6.25, 4.425 DstY= 0.0, -2.1375, 3.75, 0.3625, 0.0, -0.3625,-3.75, 2.1375 SrcX= 20.0, 40.0, 50.0, 30.0, 20.0, 10.0, 40.0, 50.0 SrcY= 0.0, 0.0, -0.0, -0.0, 0.0, 0.0, -0.0, -0.0
Signale zeigen den zeitlichen Verlauf. Im Diagramm werden die Amplituden über der Zeit t aufgetragen. Im Frequenzbereich ( Spektrum ) werden die vorkommenden harmonischen Anteile über der Frequenz f aufgetragen.
Analytisch gegebene ( einfache ) Zeit-Funktionen können mathematisch mit den Formeln für die Fourier-Transformation in den Frequenzbereich umgerechnet werden. Z.B. entspricht einer gedämpften ( abklingenden ) Schwingung x(t) im Frequenzbereich die Lorenz-Kurve a(ω). Die Lorenz-Kurve wird auch Breit-Wigner-Kurve genannt.
Zeitbereich: x(t) = e^-k.t.cos(ω[0].t) mit t > 0; Frequenzbereich: a(ω) = k/(k^2+(ω-ω[0])^2) |
Einer gedämpften Schwingung im Zeitbereich entspricht ein einziger Peak im Frequenzbereich. Für den Transport von zeitlich variierenden Signalen ist die Bandbreite der Übertragung wichtig. Ausserhalb dieser Bandbreite wird das Signal verzerrt und gedämpft. Für solche Betrachtungen eignet sich die spektale Darstellung.
Beispiele:
Frequenzspektrum ( Fouriertransformierte ) für nichtperiodische Signale x(t) | |
Die Spektralfunktion der Stoßfunktion ist in einem weiten Bereich nahezu konstant: | |
Die Sprungfunktion liefert überwiegend niedrige Frequenzen: | |
Ein Schwinger betont einen Frequenzbereich: | |
Zeitbereich t, Frequenzbereich f |
Das Abtasttheorem wurde von Shannon ( 30.4.1916-24.2.2001, Schaltalgebra, Begründer der Informationstheorie ) formuliert. Wird ein analoges Meßsignal x(t) mit der Abtastperiode dt zu den Zeiten t[k] = k.dt mit k = 0,1,2,... n-1, abgetastet, so ergeben sich die Abtastwerte x[k] = x(t[k]).
Abtasttheorem: f[max] < f[Abtast]/2 = 1/(2.dt) | |
Abtasttheorem: Aus den Abtastwerten x[k] kann der Signalverlauf x(t) rekonstruieren, falls die höchste in x(t) vorkommende Frequenz f[max] kleiner ist als die halbe Abtastfrequenz f[Abtast]/2 = 1/(2.dt). Diese halbe Abtastfrequenz wird als Nyquistfrequenz bezeichnet. Z.B. werden für Musik Samples x[k] ( a 2 Byte ) verwendet bei einer Abtastperiode dt = 1/( 44.1 kHz ). Falls das Meßsignal x(t) höhere Frequenzen als die Nyquistfrequenz enthält, so kann das ursprüngliche Meßsignal nicht mehr vollständig aus den Abtastwerten bestimmt werden. Eine solche ( fehlerbehaftete ) Rekonstruktion wird Aliasing genannt. Antialiasingfilter ( Tiefpass ) beseitigen die Frequenzen, die größer als die Nyquistfrequenz sind. |
Die Bestimmungsgrößen eines Klanges ( Frequenz, Hüllkurven, Oberwellen, Lautstärke, zeitliche Entwicklung, usw.) werden im Synthesizer [griechisch/englisch, durch Synthese verbinden, aufbauen ] aus vielen Einzelfunktionen zusammengesetzt.
Moderne elektronische Instrumente ( Keyboard-Sampler ) ermöglichen ein Hinzumischen von gesampelten, instrumentenspezifischen Oberwellen zu den Grundtönen von Tasteninstrumenten. Dadurch entsteht ein Klang, der dem Klang von natürlichen Instrumenten nahe kommt. Moderne Pop-Musik wird überwiegend mit diesen technischen Möglichkeiten komponiert und erstellt.
In der Popmusik ( z.B. Hip Hop, House Music, Techno ) werden oft kurze Sequenzen von alten Soul-Platten genutzt, die in Schleifen ( Loops ) wiederholt und im Tonstudio ( Computer ) zusammen gemischt werden. Diese Studio-Technik wird ( auch ) Sampling genannt.
Resonanz [ lateinisch, wörtlich Widerhall ] ist ein grundlegendes, naturwissenschaftliches Phänomen, das vielfältig vorkommt ( Schwingung; Resonanz in der Chemie; Resonanz in der Elektronik; Oszillator; Schwingunserzeugung für künstliche Töne und Stimme; Brücken; Grockentürme; Hochhäuser; Musikinstrumente; usw. ) Resonanz entspricht dem ( starken ) Mitschwingen eines Systems ( z.B. Körper ) in der Schwingung ( Grund- oder Obertonbereich ) eines anderen, äusseren, anregendem Systems. Z.B.können beim Zusammenstoß energiereicher schwerer Teilchen ( Hadronen ) angeregte Mesonen- oder Baryonen-Zustände entstehen ( Massenresonanzen, Teilchenresonanzen ), die als kurzlebige Elementarteilchen ( Lebensdauer etwa 10^-22sec ) unter Emission von Mesonen ( auch von Leptonen, Photonen ) in stabilere Elementarteilchen zerfallen. Z.B. bedarf die menschliche Stimme der inneren Resonanzverstärkung im Nasen-Rachen-Raum, das Hören der Resonanen des Ohres.
Resonanzfähig sind z.B.
Für die Klangerzeugung und Laustärkeerhöhung bei vielen Musikinstrumenten wird ein Resonanzkörper genutzt:
Auch bei elektronischen Instrumenten werden Resonanzen für die Erzeugung von Klangfarben ( Obertönen, Samples ) genutzt.
Die dynamischer Fremderregung entspricht der äusseren Anregungs-Kreis-Frequenz ω. Wenn das System sich selbst überlassen ist, so tendiert es dazu, mit der ihm eigenen Kreis-Frequenz ω[0] zu schwingen. In der Nachrichtentechnik wird die Resonanz elektrischer Schwingkreise zur Erzeugung und Trennung von elektrischen Schwingungen verwendet. |
Das folgende Bild ist ein anschauliches Modell, das sich auf andere Situationen übertragen lässt. | |
Durch den Stift, der hier wagerecht hin und her geht, wird das
schwingunsfähige System ( hier das Federsystem ) angeregt, indem es
periodisch "auf und ab" bewegt wird. Diese äussere Periode entspricht
ω. Hingegen entspricht ω[0] der
Frequenz, mit der das Federsystem gerne schwingen möchte. Ein
schwingunsfähiges System kann von aussen angeregt werden, z.B. durch
|
|
t = zeit s = Auslenkung aus der Ruhelage ω[0] = Eigenkreisfrequenz ( im Bild ist ω[0] gross, wenn die Federkonsteifigkeit C gross ist ) <pre> s^.. + ω[0]^2.s = b.sin(ω.t)b = Stärke der äusseren Anregung ( einer Frequenz ), ( im Bild ist b gross, wenn r gross ist ) ω = angegende äussere Kreisfrequenz ( im Bild ist ω gross, wenn sich das anregende Rad schnell dreht ) |
Die Abbildung zeigt, wie sich mit wachsender Frequenz der Erregung von aussen ( d.h. mit wachsendem ω, "wir gehen im Bild von von links nach rechts") die Auslenkung A ( Normierung A = s/s[0], [0]=statische Auslenkung=Ruheauslenkung ) "nach oben wächst". Bei geringer Dämpfung ( d ist klein ) können im Resonanzfall ( ω/ω[0] H 1 ) grosse Auslenkungen auftreten. Die Amplitude der so erzwungenen Schwingungen hängt wesentlich von den Dämpfungseigenschaften ( z.B. Reibung, elektrischer Widerstand) des Resonators und vom Frequenzunterschied zwischen erregtem und erregendem System ab. Je kleiner die Dämpfung ( z.B. Masse ), umso leichter gerät ein System ins Schwingen. Ist die Dämpfung = 0, so können winzigste Auslenkungen zu unenlich grossen Auslenkungen führen ( das System wird zerstört, Resonanzkatastrophen ). Der Phasenwinkel phi ( Æ ) beschreibt den "Gleichklang" von Anregung und der Reaktion des Systems. In der Resonanznähe "geht phi durch Null" ( perfekter "Gleichklang" ). Das "gut" Mitschwingen eines Resonators ( betrachtetes, schwingungsfähiges System ) mit seiner Eigenfrequenz ( Eigenschwingung ) wird Resonanz genannt. Ein schwingunsfähiger Resonators ( wenig gedämft ) führt in Resonanz grössere Schwingungen aus, als dies von der Anregung her zu erwarten wäre. |
Die vergangenen 3 000 Jahre sind mit einer fortschreitenden Entfaltung medialer Praktiken verbunden (mündlichen Kommunikationsformen der Priester und Schamanen im religiösen Ritual, dem dramatischen Spiel und der dichterischen Überlieferung durch Sänger und Erzähler, den Tontafeln der Sumerer (Keilschrift), der Papyrusrolle der Ägypter (Hieroglyphen), Griechen und Römer in der Antike, der Kodexform des Buches seit dem 2.Jh. ( Buchmalerei, Prachthandschriften des Mittelalters, gedrucktes Buch, Flugblätter, moderne Formen der Massenkommunikation, Zeitschrift und Zeitung, Schallplatte, Stummfilm, 1927 Tonfilm, Rundfunk seit 1924 in Deutschland, Fernsehen). Informationen können mit unterschiedlichen Medien durch Sprache, Schrift, Bild, Musik und nonverbal (gestische, mimische) verbreitet werden (Mediengesellschaft). Nach Marshall McLuhan (Medientheoretiker) ändern Medien die Wahrnehmungsformen des Menschen (das logisch-kausale Denken in den westlichen Gesellschaften ist auch ein Ergebnis der Schrift- und Buchkultur, der Gutenberg-Galaxis, Mediengeschichte als Menschheitsgeschichte, Nachrichten, Bildung, Unterhaltung, Photographie, Film, Rundfunk, Fernsehen, elektronischen Speichermedien, elektronischen Netzwerke).
Multimedia strebt die Verbindung von Wahrnehmungsformen (Text, Bild, Ton, Video, Film, Hypertext, interaktive Simulation) an. Technisch genutzte medien sind Buch, Zeitungen, Zeitschriften, Photographie, Film, Hörfunk und Fernsehen, Schallplatte, Tonband und elektronische Medien. Das Telefon erlaubt eine bidirektionale Kommunikation. Medien werden unterschiedlich unterteilt: Printmedien/elektronische Medien, Massenmedien; audiovisuellen Medien; optische oder akustische Medien; Primärmedien (z.B. das Theater), Sekundärmedien (z.B. Druck von Zeitungen), Tertiärmedien (CD, Digital Video Broadcasting, Video on demand, World Wide Web).
Der Multimedia-Begriff kann aus unterschiedlichen Blickwinkeln betrachtet werden: individueller Nutzen und Anwendersicht, gesellschaftliche Relevanz, ästetischen Entwicklung (Videokunst) und künstlerischen Gestaltung, technische Realisierung, Verfügbarkeit (Overhead-Projektoren, Beamer, Video-Kamera, Video-Recorder, DVD-Recorder), Ortsunanhängigkeit (z.B. Internet, Video-Spiele).
Die Audio-Technik (analog/digital) umfaßt heute die Gebiete der
Mit der Einführung von elektrischen Verfahren (Elektronik) kam eine Entwicklung in Gang, die
führte.
Die Schallaufzeichnung (griechisch: Phonographie) dient der Speicherung von Schallvorgängen auf einem Träger. Der amerikan. Pionier Thomas Alva Edison (1847-1931) meldete mehr als 1000 Patente an. 1877 erfand Thomas Alva Edison einen Apparat, mit dem Schall auf einer Staniol-Walze aufgezeichnet und wiedergegeben werden konnte. Die Schallwellen wurden mit einem Schalltrichter gebündelt.
Erfindungen von Edison (1847-1931): 1877: Kohlekörnermikrofon 1878: Phonograph (Vorläufer des Grammophons) 1879: Kohlefadenglühlampe 1881: Dampf-Verbundgenerator 1891: Kinetograph (Filmaufnahmegerät) | ||
Das Prinzip des Edison-Phonographen 1877 besteht aus Staniolwalze, Schneidstichel, Membran und Schalltrichter. Die Luftdruckänderungen werden bei diesem Nadeltonverfahren elektromechanisch mit einem Schneidstichel als Rille auf die Walze ( später Schell-Lack-Platte) aufgezeichnet. |
Magnetische Schallaufzeichnungen verwenden die magnetisierung von Dipolen als Tonspur(en) auf Magnettonträger. Das Lichttonverfahren benutzt optische Verfahren, die auf dem Filmmaterial die "Lichtspur" aufzeichnen.
Für eine möglichst wirklichkeitsgetreue Schallaufzeichnung werden heute Kondensatormikrofone eingesetzt, die eine mitschwingende Metallfolie verwenden. Damit die Folie möglichst trägheitslos den Schalldruckänderungen folgen kann, ist die Folie (sehr) dünn. Die Kapazitätsänderung der Folie entspricht einer (sehr) kleine elektrische Spannung. Kondensatormikrofone sind teuer, empfindlich, und brauchen eine Fremdspannung. Kondensatormikrofone werden in der Studio-Technik eingesetzt.
Prinzip eines modernen Schallwandlers (Kondensatormikrofon) Die Luftdruck-Änderungen bringen die Membran zum schwingen. Der Abstand zur Gegenelektrode entspricht der elektrostatischen Kapazität. Die Kapazitätsänderungen entsprechen der Potentialänderungen der Tonfrequenz. |
Eigenschaften typischer Mikrofone | ||||
Typ | Richt- charakte- ristik | Frequenz- bereich Hz | Empfindlich- keit mV/Pa | Eigen- rauschen dB(A) |
Studiomikrofon (Kondensator) | Kugel | 20-20.000 | 20 | 24 |
Studiomikrofon (dynamisch) | Kugel Supercardioid | 30-20.000 | 1.3-1.8 | 30 |
Elektret- Mikrofon (4, 3, 2 mm) | Niere | 100 - 5.000 | 10 | 25 |
Telefon- Sprechkapsel (piezoelektrisch) | Kugel | 300-3.400 | 4 | - |
mechanisch | Eine Schallplatte besteht aus einer kreisrunde Scheibe aus Polyvinylchlorid. Die Schallsignale werden in spiralförmigen, zum Mittelpunkt der Schallplatte verlaufenden Rillen gespeichert. Die Rillenauslenkung schwankt analog zur Schallamplitude und kann mit Hilfe des Tonabnehmers eines Plattenspielers in elektrische Spannung und dann in Schall umgewandelt werden. Die analoge Schallplatte ist beidseitig abspielbar. Die Schallaufzeichnung wird fest aufgeprägt und läßt sich nicht löschen oder überspielen. Schallplatte werden mit einer Drehzahl von 33.3333 oder 45 Umdr./min abgespielt. SP's (Single) und LP's ( long playing record, Langspielplatten) sind urheberrechtlich geschützt (§§15, 16, 73 Urheberrechts-Gesetz) und dürfen nur mit Zustimmung des Urhebers und der ausführenden Künstler kopiert werden. Nur der Tonträgerhersteller darf Schallplatten vervielfältigen und verbreiten. |
magnetisch | Schall kann in ein analoge, elektrische Spannung gewandelt werden und als Strom durch eine Spule Dipole einer magnetisierbaren Schicht ausrichten (analoges Aufzeichnungsverfahren, Tonspuren eines Magnettonträgers, Magnetkassetten, Tonbänder). |
optisch CD |
Es gibt Lichttonverfahren die optisch eine Belichtungsspur auf
Filmmaterial aufzeichnen und eine (sehr hohe) Aufzeichnunsdichte
erreicht (Archivierung). CD-ROM (compactdisc, read only memory) ist ein optisches Speichermedium (z.B. 650 MB, digital) und wurde 1982 von den Firmen Philips und Sony als Tonträger (Audio-CD) entwickelt. Vorteile sind: geringe Abmessung (12 cm Durchmesser), längere Spieldauer (bis zu einer Stunde), unbegrenzte Reproduzierbarkeit, Verschleißfreiheit, beste Tonqualität (32 Bits je Sample, hohe Abspielrate). CD-R ( englisch compact disc-recordable) können einmal beschrieben werden. CD-RW (englisch compact disc-rewritable) können mehrfach beschrieben werden kann. Das digitalisierte Signal wird mit Hilfe eines Lasers auf einer lichtempfindlichen Beschichtung als Hell-Dunkel-Punkt-Folge aufgezeichnet. Diese eingebrannten Löcher werden Pits genannt. Die Speicherkapazität erlaubt das Aufzeichnen von Texten, Bildern, Tonaufnahmen, Filmen. Anstelle der herkömmlichen Schallplatte-Rille mit mechanischr Abtastung hat die Ton-CD spiralförmig angeordnete winzige Vertiefungen für die digitale Speicherung der Töne. Diese Hell-Dunkel-Punkt-Folge bildet die Bits von Samples. Die Bits werden von einem feinen Laserstrahl abgetastet und wieder in analoge Musiksignale gewandelt. CDs werden heute auch im Unterhaltungs- und Multimediabereich eingesetzt, wofür es spezielle Weiterentwicklungen gibt: CD-I (CD-Interaktiv) verknüpft Ton und Bild mit Software-Anwendungen, deren Wiedergabe über Fernseher oder Stereoanlage erfolgt, MMCD (Multimedia-CD) und SD-Disc (Super-Density-Disc) ermöglichen die Speicherung von kompletten Spielfilmen. |
optisch DVD |
Aus der ursprünglichen DVD (Digital Video Disc) und dem SD-ROM (
Super Density Read Only Memory) wurde 1995 ein einheitlicher
Standard (DVD für Digital Versatile Disc). Der Aufbau der DVD ist
ähnlich einer normalen CD, wobei jedoch durch Auftragen einer zweiten
Datenträgerschicht eine doppelseitigen Nutzung möglich ist (daduch 4
verschiedene Formate mit unterschiedlichem Speichervolumen). Das
Speichervolumen der 1. Schicht beträgt 4,7 GB, der 2.Schicht 3,8 GB.
Die Informationen sind auf der einen Schicht von innen nach außen,
auf der anderen von außen nach innen verteilt (groove =
Datenspirale, versatil = beidseitig). DVD-Laufwerke können auch
CD-ROM und Audio-CD lesen. DVD-CDs sollen (zukünftig) auch für
besonders hochwertige Audio-Aufzeichnungen eingesetzt werden (auf 96
KHz verdoppelte Abtastrate, 24 Bit Auflösung). Bei DVD wird für die
engere Spurführung ein Schreib- und Lese-Laser mit besonders kurze
Wellenlängen und starker Fokussierung verwendet (Spurabstand: DVD
0,74 Mikrometer, CD-ROM 1,6 Mikrometer; Pit-Länge: DVD 0.4
Mikrometer; CD-ROM 0,9 Mikrometer) 1997 wurden Regionalcodes für DVD-Datenträger und -Laufwerke festgelegt. (viele Computer-DVD-Player können auf verschiedene Ländercodes umschalten): 1 = Amerika, Kanada 2 = Japan/Westeuropa/Mittlerer Osten/Südafrika 3 = Asien 4 Australien /Südamerika/Mexiko 5 = Afrika/Gebiet der ehemaligen UdSSR/ Indien 6 = China 8 = Flugzeuge DVD-ROM: nur lesen; DVD-R: einmal beschreiben; DVD-RAM: mehrfach wieder beschreiben; einseitig: DVD5 (einlagig 4.7 GB) und DVD9 (zweilagig 8.5 GB ); zweiseitig: DVD10 (einlagig 9.4 GB) und (DVD18 zweilagig 17.0 GB ); DVD-Fornate: DVD-ROM (nur lesbar, 4.7 bis 17 GB); DVD-RAM (wiederbeschreibbar, 2.6 GB einseitig, 5.2 GB zweiseitig ); DVD-RW (wiederbeschreibbar, 4,7 GB); DVD+RW (wiederbeschreibbar, 3 GB); DVD-R (1x beschreibbar, 3.95 GB einseitig, 7.9 GB zweiseitig); DVDplus (Kombination von DVD und Audio-CD (auf einander geklebte Hälften); MMFV (1x beschreibbar, 5.2 GB); DVD-Kompatibiltät: | CD | CD | CD | CD | DVD| DVD| DVD | | LW |Audio | ROM| -R |-RW |-ROM| -R |-RAM | DIVX | --------|------|----|----|----|----|----|-----|------| DVD-ROM | ja ja Ja ja ja | DVD-R | ja ja Ja ja ja ja | DVD-RAM | ja ja Ja ja ja ja | DIVX | ja ja Ja ja ja ja | --------|------|----|----|----|----|----|-----|------| |
Die Grenzen zwischen den Multimedia-Teilgebieten (Kompressionsverfahren, Streaming, Computergrafik, Bildanalyse, Bildverarbeitung,) sind unscharf und nicht entgültig festgelegt. Die grafische Datenverarbeitung ist ein Gebiet der angewandten Informatik und wird unterteilt in Computer Grafik (computer graphics), Bildverarbeitung (image processing), Bildanalyse (picture analysis), Bilddatenreduktion, Kompressionverfahren.
Das Sichtgerät enthält neben der Ansteuerelektronik die Kathodenstrahlröhre (CRT = Cathode Ray Tube). Die Kathodenstrahlröhre besteht aus einer Hochvakuumröhre, die die Elektronenerzeugung, -Fokusierung, -Beschleunigung, -Ablenkung und die Leuchtschicht enthält. Vor der beheizten Kathode (Elektronen - Strahlerzeugung) befindet sich ein Steuergitter ( Wehnelt-Zylinder). Mit der Wehnelt - Spannung kann die Strahintensität und damit die Helligkeit gesteuert werden. Ein elektrisches Feld beschleunigt die Elektronen. Die Fokusierung erfolgt meistens magnetisch.
Treffen die Elektronen auf die Leuchtschicht des Bildschirmes, so wird von der Leuchtschicht Licht emittiert. Auch bei abgeschalteten Elektronenstrom tritt ein gewisses Nachleuchten (Persistenz) auf. Die Nachleuchtdauer bestimmt, wie oft das Bild je Sekunde neu geschrieben (regeneriert) werden muß, damit der Benutzer den Eindruck eines stehenden, flimmerfreien Bildes hat. Eine hohe Bildwiederholfrequenz bei kurzer Nachleutdauer bedeutet, daß für den Bildaufbau wenig Zeit zur Verfügung steht. Bei kleinen Bildwiederholfrequenzen und langen Nachleutdauern sieht man 'Geisterbilder'. Die Bildwiederholfrequenz beträgt etwa 60 bis 100 Bilder je Sekunde.
Die Kathodenstrahlröhre ist nicht direkt per Software programmierbar. Die elektronische Bildschirm - Steuer - Logik wird wesentlich durch den Grafik - Prozessor (auf der Grafik - Karte) übernommen. Die darzustellenden Pixelwerte (Farbwerte) werden dem Bildschirm - Speicher entnommen, aufbereitet und in elektrische Bildschirm - Signale umwandelt. Die Organisation des Grafik - Speichers erfolgt vielfach in drei Color - Map - Bereichen (r, g, b).
Obwohl das direkte Lesen/Schreiben im Bildschirmspeicher besonders schnell ist, verhindern moderne Betriessystem aus Sicherheitsgründen mit dem Privileg Level den direkten Zugriff auf den Bildschirmspeicher. Das Betriebssystem unterstützt standardisierte Grafik - Adapter von unterschiedlichen Herstellern. Die Größe des Grafik - Speichers begrenzt die maximale Auflöung und Farbtiefe. Für die Anpassung und Benutzung von speziellen Grafik - Adaptern ist ein "Treiber" erforderlich, damit das Betriebssystem diese speziellen Hardware - Eigenschaften interpretieren kann.
Beim einfachen Zeilensprungverfahren (Interlacing) wird ein Bild dadurch aufgebaut, daß zunächst
Im Textmodus des Grafik - Prozessors werden im Grafik - Speicher anstelle der Pixel die ASCII - Werte des Zeichens hinterlegt. Beim Anzeigen holt sich der Grafik - Prozessors ein ASCII - Zeichen aus dem Bildschirm - Speicher, benutzt diesen Wert als Index ind die Bit - Map - Font - Tabelle, aus der die zugeordneten Pixel geholt und im Bildschirm gesetzt werden.
TFTs (Thin Film Transistor, Dünnfilmtransistor) sind die Grundbaustein von aktiven Flüssigkristall-Bildschirmen (LCD). Jeder Bildpunkt entspricht 3 in Folie aufgebrachten Transistoren (mit einem Reservetransistor, der Ausfälle zu kompensiert). Die TFT-Bildschirme erlauben einen hohen Kontrast (bis circa 300:1), brillante Farben und schnelle Bildwechsel.
Video (englisch, lateinisch: videre = sehen) ist eine Sammelbezeichnung für einen Komplex der Unterhaltungselektronik, der sich mit der Aufzeichnung und Wiedergabe von Fernsehbildern und Filmen befasst (Videotechnik, Videoband, Videoclip, Videofilm, Videokunst, Videotext, Videokamera, Videospiele). Der Begriff Video umfasst auch die Gesamtheit der dazu benötigten technischen Einrichtungen und Geräte (z.B. VHS = Video-Home-System, Video-Heim-System).
Videotext ist der Informationsdienst von Fernsehsendern (Teletext oder Bildschirmtext, englisch ceefax). Während des laufenden Fernsehprogramms werden zwischen zwei normalen Fernsehbildern (in der so genannten vertikalen Austastlücke des Fernsehsignals) zusätzliche Text- und Graphikinformationen (in verschlüsselter Form übertragen). Mit dem Teletext-Decoder des Fernsehgerätes können Indexseiten ausgewählt und angezeigt werden (z.B. Nachrichten, Untertitel, Wetterkarte, Börsendaten, Bahn, Flughafen usw.). Für Gehörlose können Untertitel einblendet werden.
Durch neue Möglichkeiten (Hardware, Software) entstandt in den siebziger Jahren ein neuer Industriezweig der Video- und Computerspiele (Nintendo, Sega, MS, Spielhallen mit Videospielen, Spiele im Internet). Videospiele können Kinder mit Computern und Problemlösungstechniken vertraut machen und die emotionale Entwicklung (positiv/negativ) beeinflussen. Es gibt Sportspiele wie Fußball, Basketball, Eishockey, Golf; Abenteuer-Spiele; Abfrage- und Lernspiele; Spiele für Simulationen und zur Findung von Problemlösungstechniken.
Entwicklungsstufen:
Die magnetischen Video-Bildaufzeichnung (RCA 1953, 1956
Weiterentwicklung Ampexverfahren mit rotierenden Videoköpfen und
Querspuraufzeichnung) gehörten zur Standardausrüstung in den
Fernsehanstalten (MAZ). Ab 1972 gibt es Heimvideorekorder (Philips
VCR = Video-Cassette-Recorder). Wegen der ausbleibenden
internationalen Abstimmung (Konkurrenzkampfes zwischen den
Entwicklerfirmen) gibt es keine einheitliche Kassettennorm. Es müssen
systemspezifische Kassetten verwendet werden (Sony 1977 Betamax-System
mit 1/2-Zoll-Bändern anstelle 3/4-Zoll-Bänder,
JVC 1977 mit seinem VHS-Videorekorder = Video Home System,
1979 Philips und Grundig Video 2000,
1985 Sony 8-mm-Videokassette bei Videokleinrekorden mit digitaler
Tonaufzeichnung und HiFi-Qualität).
Die Ebtwicklung von optischen Aufzeichnungsmedien geht über CD zur DVD.
CD/DVD-Entwicklungsstufen:
1982 Philips und Sony CD-ROM (compactdisc, read only memory, Audio-CD
),
aus der ursprünglichen DVD (Digital Video Disc) und dem SD-ROM (Super
Density Read Only Memory) wurde 1995 ein einheitlicher Standard (DVD für
Digital Versatile Disc).
Der Aufbau der DVD ist ähnlich einer normalen CD, wobei jedoch durch
Auftragen einer zweiten Datenträgerschicht eine doppelseitigen Nutzung
möglich ist (daduch 4 verschiedene Formate mit unterschiedlichem
Speichervolumen). Das Speichervolumen der 1. Schicht beträgt 4,7 GB, der
2.Schicht 3,8 GB. Die Informationen sind auf der einen Schicht von innen nach
außen, auf der anderen von außen nach innen verteilt. Audio- und
Video-Formate, Bezeichnung für Verfahren zum Digitalisieren, Speichern und
Bearbeiten von Ton- und Bildinformationen.
Format Content Type Quality CPU Bandwidth Requirements Requirements Cinepak AVI Medium Low High QuickTime MPEG-1 MPEG High High High H.261 AVI Low Medium Medium RTP H.263 QuickTime Medium Medium Low AVI RTP JPEG QuickTime High High High AVI RTP Indeo QuickTime Medium Medium Medium AVI
JMF API Guide 6: Table 1-1: Common video formats. Format Content Type Quality CPU Bandwidth Requirements Requirements PCM AVI High Low High QuickTime WAV Mu-Law AVI Low Low High QuickTime WAV RTP ADPCM AVI Medium Medium Medium (DVI, QuickTime IMA4) WAV RTP MPEG-1 MPEG High High High MPEG MPEG High High Medium Layer3 GSM WAV Low Low Low RTP G.723.1 WAV Medium Medium Low RTP
Audio | ||||
Qualitätsstufe | Format Beispiel |
Transferrate | Speicherbedarf 1 Stunde |
Speicherbedarf 100 000 Stunden |
Netcasting | RealAudio | 20 KBit/s | 8,8 MByte | 0,9 Terabyte |
Vorhören | RealAudio MPEG-1 Layer 3 |
80 KBit/s 192 KBit/s |
35 MByte 84 MByte |
3,5 Terabyte 8,4 Terabyte |
Sendung/Schnitt | MPEG-1 Layer 3 | 384 KBit/s | 168 MByte | 16,9 Terabyte |
Archiv | Waveform BWF |
1,5 MBit/s | 675 MByte | 67,6 Terabyte |
Video | ||||
Qualitätsstufe | Format Beispiel |
Transferrate | Speicherbedarf 1 Stunde |
Speicherbedarf 100 000 Stunden |
Netcasting | VDOLive | 60 KBit/s | 26 MByte | 2,6 Terabyte |
Vorschau (via ISDN) | RealVideo | 100 KBit/s | 44 MByte | 4,4 Terabyte |
Vorschau (via LAN) | MPEG-1 | 1,5 MBit/s | 675 MByte | 67,6 Terabyte |
Sendung | MPEG-2 MP@ML |
8 MBit/s | 3,5 GByte | 350 Terabyte |
Schnitt | MPEG-2 DVCPro DVCPro50 |
18 MBit/s 25 MBit/s 50 MBit/s |
7,9 GByte 11 GByte 22 GByte |
790 Terabyte. 1 Petabyte 2,2 Petabyte |
Archiv | M-JPEG LosslessMode |
100 MBit/s | 43,9 GByte | 4,4 Petabyte |
unkomprimiert | ITU-R BT.601-5 | 270 MBit/s | 118,7 GByte | 11,9 Petabyte |
Vergleich zwischen DVD und CD | ||||
SYSTEM | SPEICHERKAPAZITÄT | SPIELDAUER (AUDIO) | SPIELDAUER (VIDEO) | CD-ÄQUIVALENTE |
CD Compact Disc | 682 Megabyte | 78 Minuten (1 h 18 min) | 70 Minuten (Video-CD) | 1 |
DVD simple-sided/simple-layer | 4,7 Gigabytes | 570 Minuten (9 h 30 min) | 135 Minuten (2 h 15 min) | 7 |
DVD simple-sided/double-layer | 8,5 Gigabytes | 1 050 Minuten (17 h 30 min) | 240 Minuten (4 h) |
13 |
DVD double-sided/simple-layer |
9,4 Gigabytes | 1 140 Minuten (19 h) |
270 Minuten (4 h 30 min) |
14 |
DVD double-sided/double-layer |
17 Gigabytes | 2 100 Minuten (35 h) |
540 Minuten (8 h) | 26 |
PCM ist eine Abkürzung für Pulscode-Modulation.
Viele Sensoren liefern analoge, elektrische Signale. Ein dynamisches Mikrofon erzeugt z.B. aus den Schall-Druck-Schwankungen eine analoge elektrische Spannung.
Der erste Schritt der PCM ist die Umwandlung des Analogsignals in ein Digitalsignal. Dazu wird das Signal zunächst in seiner Amplitude (Lautstärke z.B. beim Telefon) und seiner Bandbreite (Frequenzbereich / Tonhöhen) begrenzt. Dann wird mit einem Analog-Digital-Converter (ADC) wird das Signal abgetastet, indem in festen, kleinen Zeitabständen die Spannung gemessen wird. Jedem analogen Spannungswert wird eine Binärzahl zugeordnet. Eine solche Binärzahl heißt Sample.
Die Samples umfassen z.B. 16 Bit und teilen den zulässigen Spannungsbereich damit in 65536 Intervalle auf (Diskretisierungs-Verzerrung ).
Die Samples können der Physiologie besser angepaßt werden, indem die Samples nicht linear sondern logarithmisch dem analogen Signal zugeordnet werden.
Die digitalen Daten (Samples) können nun digital verarbeitet z.B. seriell übertragen werden. Mit einem Digital-Analog-Converter (DAC) werden das treppenartige, genäherte Ausgangs-Signal erzeugt. Mit einem Tiefpaß kann dieses analoge Signal geglätten werden.
Bei Wikipedia gibt es eine Liste der Audioformat . Zu unterscheiden sind verlustfreie von verlustbehafteten Datenreduktionen.
Normen für die Audioübertragung | |||||
Norm | Ver- fahren | Quanti- sierung bit | Abtast- rate kHz | Daten-Rate kbit/sec MB/min | |
CCITT G711 | PCM | 8 | 8.0 | 64 | 0.48 |
CCITT G721 | ADPCM | 8 | 8.0 | 32 | 0.24 |
CCITT G723 | ADPCM | 8 | 8.0 | 24 | 0.18 |
CCITT G722 | ADPCM | 14 | 16.0 | 64 | 0.48 |
CCITT G728 | LD-CELP | 16 | 0.12 | ||
CD | PCM | 16 | 44.1 | 1411 | 10.58 |
DAT | PCM | 16 | 32.0 48.0 | 1000 1536 | 7.50 11.52 |
MPEG (Moving Pictures Experts Group, Kompressionsstandards für Video- und Audiodaten seit 1988) ermöglicht die Kompression von bewegten Farbbildern ( Videos) und der Tonspur. Das Ziel ist eine effektivere Ausnutzung der Kabelnetze, Satellitentransponder und TV-Kanäle (Multimediaanwendungen, Filme, Songs, Internet). Bisher gibt es 4 Standards für Video (MPEG-1 bis MPEG-4). Populär ist der Audiostandard MPEG Audio Layer 3 (kurz MP3). Datei-Kennungen sind
Seit 1987 arbeitet man im Institut für Integrierte Schaltungen (ISS) der Fraunhofer-Gesellschaft in Erlangen an verschiedenen Layern für MPEG. Mit Layer 1 wurde ein Kompressionsfaktor von 4:1 verwirklicht und mit Layer 2 schon 8:1; Layer 3 erreichte den exzellenten Faktor von 12:1. Mit der Layer-1-Codierung wurde der DCC-Rekorder (Digital Compact Cassette) verwirklicht, mit Layer 2 arbeitet das europäische DAB-System (Digital Audio Broadcasting).
Das Audioformat MPEG Audio Layer 3 (kurz MP3) benutzt ein Studio-Audiosignal (88 kHz Abtastfrequenz, 16 Bit Samples, 1 408 Kbit/s/Kanal, bei Stereo also rund 2.8 Mbit/s (als klassische CD-Qualität gilt: 44,1 KHz, 16 Bit, Stereo; 706 Mbit/s/Kanal, also rund 1.4 2.8 Mbit/s). MP3 arbeitet mit einem psychoakustischen Modell zur Datenkomprimierung ( Anpassung an den menschliche Gehörsinn, Datenreduzierung ohne Klangverschlechterung). MP3 zerlegt den Klang in 32 Spektralkomponenten, die nach psychoakustischen Kriterien reduziert werden.
Beispiel: Laute und tiefe Töne überdecken im menschlichen Gehör leise hohe Klänge (diese "unhörbaren" leisen Klänge können reduziert werden). Ein Poptitel (3-5 min) benötigt in CD-Qualität etwa 30-50 MB (WAV-Datei). Eine MP3-Datei (gleiche Qualität) benötigt dafür 3-5 MB. MP3 reduziert den Speicherbedarf von Musik auf etwa ein Zehntel.
Da MP3-Dateien haben ein Headerless-File-Format und damit für Streaming geeignet (während des Downloads bereits anhören) . MP3-Dateien benötigen zum Abspielen einen MP3-Player (WinAmp für Windows, MacAmp für Apple, QuickTime ab Version 4.0, Microsoft Media Player ab Version 6.1).
Die MPEG-Kompression zerlegt das Videosignal in drei Typen von Frames:
Jeder Frame wird wiederum in drei so genannte Planes für die Farbwerte zerlegt (eine Plane für die Leuchtdichte = Luminanz, zwei Planes für die Farbart = Chrominanz-Werte. Alle Planes werden in Blöcke von 8×8 Pixel gerastert und wie JPEG-Formate weiter codiert ( Discrete-Cosine-Transformation DCT) und sodann mit Huffmann-Tabellen komprimiert. Die Komprimierung funktioniert wie bei JPEG: Ähnliche Farbwerte werden zusammengefasst; die Anzahl der somit als gleichwertig definierten Farbfelder wird in Tabellen gespeichert.
Alle MPEGs besitzen drei Layer: je einen für Video, Audio und System. MPEG leistet Kompressionsraten von maximal 180:1, gebräuchlich sind Raten von etwa 80:1 (S-VHS auf MPEG-1).
MPEG-1 (entwickelt 1991/92, ISO 11172) reduziert das TV-Signal von
original 166 Mbit/s auf 1,5 Mbit/s (1,2 Mbit/s für Video, 386 Kbit/s für
Audio). MPEG-1 leistet am Monitor 352×240 Pixel bei 30 Frames pro
Sekunde.
MPEG-2 (ISO 13813) leistet im Gegensatz zu MPEG-1 die volle Auflösung
eines TV-Signals (704 × 480 Pixel beim US-Format NTSC, 704×576 Pixel beim
deutschen PAL-Format) mit einer Datenrate von 6 Mbit/s. MPEG-2 ist voll
abwärtskompatibel zu MPEG-1.
MPEG-4 (ISO 14496) wurde für interaktive Anwendungen entwickelt
(1993-1998) und leistet 174×144 Pixel bei 10 Hertz. Die Datenrate wurde mit
4.8 KBit/s bis 64 Kbit/s bewusst sehr gering gehalten, damit Videotelefone (
Bildtelefone), Multimedia E-Mail, elektronische Zeitungen u.a. Anwendungen
ermöglicht werden.
BIFS: Binary Format for Scene Description AudioBIFS: Physical Nodes, Perceptual Nodes (BIFS: Binary Format for Scene Description)
MPEG4 nach E.D.Scheirer:
Der "Windows Media Player" kennt die folgenden Formate:
File type (format) | File name extension |
---|---|
AU (UNIX) audio files | .au and .snd |
Audio Interchange File Format (AIFF) audio files | .aif, .aifc, and .aiff |
CD audio disc | .cda |
DVD-Video disc | .vob |
JPEG picture file | .jpg |
Macromedia Flash animation file | .swf |
Microsoft Recorded TV Show | .dvr-ms |
MP3 audio files | .mp3 and .m3u |
MPEG video files | .mpeg, .mpg, .m1v, .mp2, .mpa, .mpe, .mp2v, and .mpv2 |
Musical Instrument Digital Interface (MIDI) audio files | .mid, .midi, and .rmi |
Windows audio and video files | .avi and .wav |
Windows Media audio and video files | .asf, .asx, .wax, .wm, .wma, .wmd, .wmp, .wmv, .wmx, .wpl, and .wvx |
Windows Media Player skin file | .wmz |
Das Multimedia-Steuerelement Media Control Interface (MCI) unterstützt Geräte wie z.B.:
Verbreitet sind derzeit folgende Formate:
Audio-Datei | *.wav, *.snd,*.au, *.aif, *.aifc, *.aiff, *.wma, *.mp3 |
Midi-Datei | *.mid, *.rmi, *.midi |
Video-Datei | *.mpeg, *.mpg, *.m1v, *.mp2, *.mpa, *.mpe, *.avi (Audio Video Interleaved, Clips ohne Klangunterstützung), *.wmv |
Windows Media-Datei | *.asf, *.wm, *.wma, *.wmv |
Medienwiedergabeliste | *.asx, *.wax, *.m3u, *.wvx, *.wmx |
CD-Audiospur | *.cda |
Die generative Computer Grafik behandelt künstlich hergestellte Bilder, die programmgesteuert aus geeigneten Datenstrukturen erzeugt, manipuliert und ausgegeben werden.
Grafischen Grundtypen sind
Mit diesen Typen können Bilder, Zeichnungen, Tabellen, Pläne, usw. erzeugt werden.
In der Bildverarbeitung wird eine Menge von n x m Farbpunkten (Pixels) bearbeitet, die z.B. durch Digitalisieren einer Photographie oder von elektronischen Video - Aufnahmen (TV-Bilder, Satellitenbilder, medizinische Bilder) erhalten werden. Das Bild ist unstrukturiert. Außer Pixeln gibt es keine Bild - Objekte.
Die Bildverarbeitung beschäftigt sich mit Verfahren zur besseren Bilderkennung und - Darstellung.
Die Aufgaben der Bildverarbeitung sind:
Wie bei der Bildverarbeitung ist eine Menge von n x m Farbpunkten (Pixels ) vorgegeben. Die Bildanalyse versucht, in dem unstrukturieren Bild zusammengehörende Pixel - Muster zu finden, einzuordnen und zu erkennen ( Mustererkennung, pattern recognition). Durch eine solche automatische Zerlegung der Pixelmengen in Teil und Urbilder sollen Strukturen und Objekte (Dreiecke, Kreise, usw.) gefunden und identifiziert werden. Mit den gefundenen Objekten kann das Bild als eine Darstellung von Objekten betrachtet werden. Es ergeben sich andere Datenstrukturen, die dann gespeichert, transformiert und verarbeitet werden.
Bei der Bildanalyse werden Methoden der Computergrafik und der Bildverarbeitung verwendet. Das automatische Erkennen von unterschiedlichen, komplizierten Formen und Mustern stellt eine schwierige Aufgabe dar.
Die geometrischen Daten umfassen die Objektart, Objektposition im Bild, Objektgröße, Objektlage, Objektdarstellung.
Die topologischen Daten beschreiben die Zusammenhänge zwischen den Objekten eines Bildes (z.B. Wechselbeziehung von Teilobjekten, Nachbarschaften, Bildhierarchien, Attributindizierung, usw.). Ausgehend von einer Grundmenge von Standard - Komponenten werden Objekte höherer Ordnung zusammengesetzt.
Ein Bild mit 1024x1024 Pixel bei 24 Bit Farbtiefe ergibt einen Speicherbedarf von 3 MB. Kompressionsverfahren versuchen, diesen Speicherbedarf zu reduzieren. Es gibt verlustfrei Entropie - Encoder und verlustbehaftete Kompressionsverfahren. Für ein Kompressionsverfahren sind wichtig:
Der Begriff "Farbe" hat Bezüge zu Physik, Technik, Kunst, Kultur, Psychologie, Physiologie, Biologie, Neurophysiologie, Neurowissenschaft, Psychophysik, Neurowissenschaft, Kognitive Psychologie, Optometrie, Fotometrie, Ophthalmologie, Unaufmerksamkeitsblindheit, Veränderungsblindheit, Imagination Kognitive Psychologie, Optometrie, Ophthalmologie, Imagination.
Der Begriff Farbe ist abhängig von Bezugssystemen und in verschiedenen Systemen ist Farbe verschieden von Farbe. Farben ( und Vorstellungen und Bilder ) sind physiologisch bedingt und erfahrungsspezifisch. Siehe z.B. de.wikipedia Evolution des Auges , Funktionsmechanismus der Bilderzeugung , Visuelles System , Visuelle Wahrnehmung , mehr technisch Farbmetrik .
Die Farbenlehre ist die Lehre der Farbe als physiologisches Phänomen. Siehe z.B. eine allgemeine Einführung bei de.wikipedia Farbenlehre
de.Wikipedia: Grundfarben entsprechen den nutzbaren Farbmittel, die zu einer bestimmten Farbwahrnehmung gemischt werden können. Die Grundvalenzen ( X, Y, Z ) spannen einen Rot-, Grün-, Blau-Valenz-Farbraum auf. Es gibt z.B. den RGB-Farbraum, das CMYK-Farbmodell, den HSV-Farbraum.
Zahlreiche fundierte Informationen zu Licht und Farbe hat Prof.(em) Dr. Dietrich Zawischa ( Institut für Theoretische Physik, Universität Hannover, seit 2003 im Ruhestand ) zusammengetragen. Einige Stichworte: Feuer und Glut; Quantenmechanik für Nichtphysiker, Atomare Linienspektren; Farbstoffe und Kristalle; Mineralien und Pigmente; Regenbogen, Streuung, Beugung und Interferenz, Brechung, Dispersion; Farben und Gehirn, Farben bei längerem Augenreiben, Farben bei Blendung durch zu helles Licht, physiologisch bedingte Sinnestäuschungen; Kleine Farbenlehre, Farbmetrik, Farbe für den Bildschirm; Weblink Dietrich Zawischa Homepage
Es gibt Sub-Weblinks:
Einführung in die Farbenlehre ohne mathematische Formeln;
Farbmetrik und die CIE-Diagramme – Vorlesung: Skript + Bilder;
Farbwiedergabe, das kontinuierliche Spektrum,
Bunte Bilder in PostScript programmieren;
Quelltexte.
Wie kommt Farbe zustande?
,
Farbenlehre
Die Farbmetrik benutzt mathematischer Beschreibungen für Farben. Die Grundlage ist das CIE - Diagramm (Commision Internationale de l´Eclairage, 1931). Die physiologischen Eigenschaften des Auges waren 1931 noch nicht hinreichend bekannt. Grassmann hatte bereits 1853 gezeigt, daß zwischen 4 Farbvalenzen immer eine lineare Beziehung besteht. Deshalb wurden 3 Helligkeits - Verteilungsfunktionen X, Y, Z als Grundfarben gewählt. Sind r, g, b baryzentrische Koordinaten der Farbe F = r . X + g . Y + b . Z, so ist r + g + b = 1. Zur Darstellung genügen 2 Grund - Farben. Das 2D - CIE - Diagramm hat die X, Y - Achsen. In dem X, Y - Dreieck sind die Farben eingetragen.
In der Informatik werden die folgenden Farbmodelle eingesetzt:
Modell | Variablen | Bemerkungen |
Licht | kontinuierlich | exakt aber nicht praktikabel |
RGB | red, green, blue | Additive Farbmischung, Farbbildschirme. |
CMY | cyan, magenta, yellow | Subtraktive Farbmischung, sonst analog RGB |
CMYK | cyan, magenta, yellow, black | wird in der Druckindustrie verwendet |
RYB | red, yellow, blue | wird zum Zeichnen benutzt |
YIQ | Intensität (Luminanz, Helligkeit), red-Intensität, blue-Intensität | für TV in USA, I enthält s/w-Bild, rb die Farbinformation (Chrominanz) |
YUV | Intensität, Farbdifferenzen U, V | PAL, SECAM |
HSB | hue (Farbton), saturation (Sättigung), brightness (Helligkeit) | identisch zu HSV, Java |
HSI | hue, saturation, intensity | für Farbempfinden, Farbbeschreibungen |
HSV | hue, saturation, value | ähnlich HSI, für Computerberechnungen |
HLS | hue, lightness, saturation | ähnlich HSI, für Computerberechnungen |
Bei den Farbmodellen werden Komplementärfarben (außer YIQ) nicht benutzt.
Das RGB-Farbmodell unterstützt das sogenannte additive Farbmischverfahren. Das additive Farbmischverfahren wird bei Farbbildschirm angewendet. Das durch Fluorezenz erzeugte Licht gelangt direkt in das menschliche Auge gelangt.
Schwarz bedeutet, daß kein Licht das Auge erreicht (Wert = 0). Weiß wird
durch die Addition der drei Grundfarben Rot, Grün und Blau erzeugt. Die
Intensitäten der drei Primärfarben werden zu einer Gesamtfarbe addiert.
Das RGB-Farbmodell setzt dieses additive Farbmischsystem direkt in ein
Zahlenmodell um (dreidimensionaler Vektorraum). Der Farbraum wird durch die
Einheitsvektoren Rot, Grün und Blau aufgespannt. Der Ursprung O ist Schwarz.
Die mathematische Schreibweise für eine RGB-Komponenten benutzt für r = red,
g = green, b = blue jeweils reelle Zahlen zwischen 0.0 und 1.0. Eine Farbe
wird in mathematische Schreibweise durch das Tripel (r, g, b) dargestellt.
Z.B. werden durch den Java - Konstruktor
public Color(int r, int g, int b) { this(((r & 0xFF) << 16) | ((g & 0xFF) << 8) | ((b & 0xFF) << 0)); }
Das RGB-Farbmodell ist an die Hardware angepaßt. Bei einem Elektronenstrah-Monitor bestehen Pixel aus 3 Phosporpunkten r, g, b. Der Farbbildschirm hat 3 Elektronenkanonen r, g, b, die die zugeordneten r, g, b - Phosporpunkte beschiessen. Die Intensität jeder Kanone kann z.B. in 256 Stufen erfolgen. Die technische Realisierung verwendet für red, green, blue jeweils ein Byte, d.h. eine Farbe wird als 32 bit - Zahl (hex = 0x00bbggrr = #00bbggrr) dargestellt. Das 3. Byte (hier 00) kann spezielle Bedingungen kennzeichnen (Transparenz, Gamma, usw.).
Als 3D-Einheitswürfel haben die acht Ecken die Farben red, green, blue, cyan magenta, yellow, black, white.
Jede Farbe in diesem Würfel wird nun durch ihre Koordinate charakterisiert, die sich jeweils aus den Anteilen der drei Primärfarben rot, grün und blau zusammensetzt. Die Grauwerte befinden sich dabei auf der Würfeldiagonalen von schwarz nach weiß.
In Java wird für Farben "public final class Color { ... }" definiert. Jede Farbe wird durch eine int - Zahl (4 Byte) dargestellt. Beim RGB - Modell werden die Grundfarben Rot, Grün, Blau verwendet. Jede r,g,b - Farbe kann eine ganze Zahl von 0 .. 255 annehmen. Die drei r,g,b - Byte ergeben 2^24 verschieden Farben. Kann ein System nicht alle Farben darstellen, so wird intern eine geeignete Farbe ausgewählt. Die technischen Farbmodelle (RGB) sind für die Ausgabegeräte geeignet.
Die Schallausbreitung kann mit einer Stimmgabel veranschaulicht werden. Die Stimmgabel wurde 1711 von dem englischen Trompeter und Lautenisten John Shore erfunden. Eine Stimmgabel ist ein U-förmig gebogener Stab (Legierung Chrom, Nickel und Stahl), der durch Schlag oder Reibung zu Querschwingungen angeregt wird. Eine Stimmgabel erzeugt einen klaren, obertonarmen Ton, der unabhängig von kleineren Temperaturschwankungen ist und dadurch zum Einstimmen von Musikinstrumenten (Kammerton A, 440 Hertz) verwendet werden kann. Heute gibt es elektronische Stimmgeräte, die einen reinen Sinuston in der jeweiligen Tonhöhe produzieren.
Schall-Erzeugung mit der Stimmgabel 440 Hz | |
Verdichtung/Verdünnung der Luftmoleküle (Luftdruck-Änderungen) |
Auf einen festen Körper auftreffende Schallwellen üben auf diesen einen rasch wechselnden Druck aus (Schalldruck). Gleichzeitig werden auf den Körper mechanische Größen wie Impuls und Energie (Schallenergie) übertragen.
Wie bei allen Wellenvorgängen tritt auch der Doppler-Effekt auf. Der Schall breitet sich mit Schallgeschwindigkeit aus.
Zur Verstärkung von Schall werden die Druckschwankungen (Musik) mit Mikrofon in elektrische Signale gewandelt, elektrisch verstärkt und mit Lautsprecher wieder in mechanische Schwingungen und Schall transformiert.
Das Wort Ton kommt aus dem lateinischen. In der abendländischen Musik ist der Ton die elementarste Einheit eines Musikstückes. Zu einem Ton gehören Tonhöhe, Klangfarbe, Lautstärke und Tondauer.
Zu den ältesten Saiteninstrumente (Chordophone; griechisch: Saitenklinger ) zählen Harfe und Leier (Orient 3.Jh.v.Chr.). Die Laute entstand etwa ein Jahrtausend später. Nach der Erfindung des Streichbogens (10.Jh.) entstanden Streichinstrumente (Fidel, Rebec, Lira, Trumscheit, Streichzither, Geige, Viola, Viola da gamba, Violine, Violoncello, Kontrabass; außereuropäische Instrumente: Rabab, Kamange, Jozé, Sarangi, Sarinda und Kokyu). Der Ton entsteht durch Anschlagen (Hackbrett, Klavier) oder Anreißen (Gitarre) oder Reiben oder Streichen (Streichinstrumente) oder Anblasen (Äolsharfe).
Für die Klangverbesserung und Laustärke-Erhöhung wird bei vielen klassischen Musikinstrumenten ein Resonanzkörper genutzt:
Instrumente dienen der Klang- und Musik-Erzeugung. Die Instrumentenkunde ist eine interdisziplinäre Wissenschaft (Musikwissenschaft, Bau, handwerklich-künstlerischen oder industriellen Fertigung, Physik, Akustik, Klangcharakter, Raumakustik, Kultur, Konzert, Oper, Psychologie und Physiologie des Hörens).
Aristoteles (384 v. Chr.-322) unterschied beseelte und unbeseelte Instrumente (menschliche Stimme, mechanische Instrumente). Nikomachos von Gerasa (2.Jh.n.Chr.) unterschied Saiten-, Blas- und Schlaginstrumente. Die neuzeitliche Klassifizierung im 16. und 17. Jahrhundert orientierte sich wieder an Boethius’ Dreiteilung, wenn auch mit zahlreichen Untergruppen und Sonderfällen. Die heute übliche Einteilung der Instrumente geht auf Erich Moritz von Hornbostel (1877-1935) und Curt Sachs (1881-1959) zurück. Dies ist eine naturwissenschaftlicher Klassifikationen nach dem dominanten Schinger (Idiophone = Selbstklinger, Membranophone = Fellklinger, Chordophone = Saitenklinger und Aerophone = Luftklinger). Hornbostel/Sachs-Klassifikation 1948 um die elektronischen Synthesizer.
Akustische (klassische) Musikinstrumente nutzen zur Schallverstärkung und Klangbeeinflussung die Geometrie des Resonanzkörpers. Resonanz entspricht dem (starken) Mitschwingen eines Systems (z.B. Körper) in der Schwingung (Grund- oder Obertonbereich) eines anderen, äusseren, anregendem Systems. Resonanzfähig sind z.B.
Auch die menschliche Stimme bedarf der inneren Resonanzverstärkung im Nasen-Rachen-Raum, das Hören der Resonanzschnecke des Ohres (Gesang). Es gibt Menschen, die ein absolutes Gehör haben und ohne akustische Vergleichsmöglichkeit die Tonhöhe bestimmen können. Man ging bislang davon aus, dass diese Fähigkeit nicht erlernt werden kann. Sie ist nach Diese Fähigkeit ist (1999 publiziert) bei Asiaten (Tonsprache, die Bedeutung von Wörtern ist von der Tonhöhen abhängig, z.B. Vietnamesische, Mandarin) überdurchschnittlich ausgeprägt.
Sprache stellt ein komplexes Schallgemisch dar, bei dem viele Frequenzen in (harmonischer) Beziehung zueinander stehen.
Musik kann unmittelbar in der Psyche wirken. Musik hat innere Regeln. Die Modulation kann auf drei Arten erfolgen: diatonisch, enharmonisch oder chromatisch. Modulation kommt aus dem lateinischen und bedeutet modus: Maß. Modus (tonus, tropus) wird in der Musik für Tonart verwendet. Modalität und modal beziehen das (mittelalterliche) Tonarten-System; die Tonalität und tonal auf das Dur-Moll-System.
Diatonisches Beispiel (in C-Dur wird die Dominante g-h-d zur Subdominante von D-Dur),
Enharmonisches Beispiel (aus dem Dreiklang c-e-g wird c-es-gis und dies enharmonisch Sextakkord von As-Dur),
Chromatisches Beispiel (ein gemeinsamer Ton bleibt, die restlichen Töne schreiten chromatisch fort).
In der arabischen und hindustanischen Musik enthält der Begriff des Modus Tonleiterbildungen, Melodiearten, rhythmische Muster und typische Figurierungen. Im 19.Jh. wurden Modulationen in der Musik immer länger und komplexer und verloren zunehmend das tonale Zentrum (Wagner, Bruckner und Mahler). Aus der funktional-tonalen Schreibweise entstand bei bei Schönberg Atonalität.
Es gibt Musikinstrumente mit mechanischer, elektro - mechanischer, elektrischer Tonerzeugung.
Große Resonanzkörper geben oft tiefe Töne ab. Die Schallabgabe ist gerichtet. Ist die Ausdehnung der Schallquelle kleiner als die Wellenlänge der Schall - Abstrahlung, so verhält sich die Schallquelle kugel - symmetrisch. Klassische Musikinstrument können maximal ein Watt abgeben.
Die folgende Skizze zeigt den Frequnzumfang (Grundtöne) einiger Instrumente.
Bei einem Klavier werden die Töne durch das Anschlagen der Saiten erzeugt. Ist S die Spannkraft der Saite [ kg m/s/s ], m die mitschwingende Masse pro Längeneinheit [ kg / m ] und l die schwingende Saitenlänge [ m ], so schwingt eine Saite mit der Frequenz f [ Hz = 1/s ].
sqrt(S / m) f = --------------- 2 . l |
Saiten-Instrumente werden durch die Spannkraft S der Saite auf die richtige Frequenz f gestimmt. Zum genauen Abgleich wird die Schwebung benutzt.
Bereits bei der Frequenz-Zuordnung der Tonleiter (c, c#, d, d#, e, f, f#,
g, g#, a, a#, h) wird zwischen temperierter, pythagoräischer und der reiner
Dur - Stimmung unterschieden. Erklingen reine Oktaven (Frequenzverhältnis
2:1), so ist keine Schwebung zu hören. Klavier-Saiten haben nicht nur eine
mechanische Spannung, sondern auch eine geringe Steifheit. Dadurch erklingen
die höheren Partialtöne nicht exakt mit dem ganzzahligen Vielfachen der
Grundfrequenz f0, sondern ein wenig höher als 2.f0, 3.f0, 4.f0, ..., usw.
Damit keine Schwebung entsteht wird ein Klavier meistens gespreizt gestimmt,
d.h. das Frequenzverhältnis einer Oktave liegt etwas über 2.00. Dies wird im
folgenden vernachlässigt.
Die kleine Terz (e - g) hat ein theoretisches Frequenzverhältnis von
6/5.
Die kleine Sexte (e - c) hat ein theoretisches Frequenzverhältnis von
8/5.
c# | d# | f# | g# | a# | |||||||||||||||||||
t: 0.00 p: 0.00 d: 0.00 c |
t: 2.00 p: 2.04 d: 2.04 d | t: 4.00 p: 4.08 d: 3.86 grosse Terz 5/4 e | t: 5.00 p: 4.98 d: 4.98 Quarte 4/3 f | t: 7.00 p: 7.02 d: 7.02 Quinte 3/2 g |
t: 9.00 p: 9.06 d: 8.84 grosse Sexte 5/3 a |
t:11.00 p: 11.10 d: 10.88 h |
t:12.00 p: 12.00 d: 12.00 Oktave 2/1 c | ||||||||||||||||
Tonleiter (t: temperiert, p: pythagoräisch, d: c-dur, rein) |
Die elektrische Tonerzeugung verwendet Schwingungserzeuger (Clock, Generator) mit speziellen Wellenformen.
Bei einem Oszillator tritt Selbsterregung ein, wenn
1 = r . v . exp(w[r] + w[v] ) |
ist. Hierbei ist v = Verstärkungsfaktor, r = Röckkopplungsfaktor, w = Phasenwinkel.
Elektrische Orgeln enthalten heute u.a.
Der Sequenzer kann Tonhöhen, Lautstärke, Klangfarbe digital speichern. Bei der Tonerzeugung können
beeinflußt werden.
MIDI ist eine Abkörzung von Musical Instrument Digital Interace. MIDI ist eine digitale Schnittstelle für elektronische Musikinstrumente.
Eingeföhrt wurde
1987: der Midi Time Code, Sample Dump Standards, 1988: Standard - Midi-File, Befehl zum Zuröcksetzen aller Controller, 1990: Bank Select Befehl, 1991: All - Sound Off Befehl, Midi Show Control, General Midi, Micro Tuning, 1992: Machine Control.
Die Midi - Schnittstelle arbeitet als serielle Schnittstelle (RS 232 C bei 31.25 kB/s). Auf 3 Leitungen werden die Signale nacheinander öbertragen. Die Bits der Stromschleife (5 mA current loop) haben die Bedeutung:
0 = Strom an, 1 = Strom aus.
Alle MIDI - Instrumente haben 5 polige DIN- Buchsen, die zum Verbinden der Instrumente dienen:
Die Signal - Übertragung besteht aus einem Bit - Strom:
Die Hardware öbernimmt die Verwaltung der Start- und Stop - Bits. Deshalb betrachten wir lediglich die Daten-Bits (D0, D1, ..., D7).
Ein Midi - Befehl (Midi - Kommando, Midi - Nachricht, Midi - Meldung, Midi - Message) enthält Status- und DatenBytes. Ist in einem empfangenen Byte das 7. Bit gesetzt, so liegt ein Status-Byte vor, sonst ein Daten-Byte:
Ein Midi - Befehl besteht aus
Übersicht zu dem MIDI-Befehlen | |||||
Befehlsname | Status | 1.Daten Byte | 2.Daten Byte | ||
C H A N N E L |
C H A N N E L V O I C E |
Note off | 8x | Tonhöhe | Velocity |
Note on | 9x | Tonhöhe | Velocity | ||
Polyphonic Afterrouch |
ax | Tonhöhe | Druck | ||
Control Changes |
bx | 00 Bank MSB | 00..7f | ||
bx | 01 Modulation | 00..7f | |||
bx | 02 Atem | 00..7f | |||
bx | 04 Fuss | 00..7f | |||
bx | 05 Porta Zeit | 00..7f | |||
bx | 06 Dateneingabe | 00..7f | |||
bx | 07 Gesamtlautstärke | 00..7f | |||
bx | 08 Balance | 00..7f | |||
bx | 0a Pan | 00..7f | |||
bx | 0b Expression | 00..7f | |||
bx | 10..13 allCtrl 01..04 | 00..7f (s.u.) | |||
bx | 20..3f LSB 00..1f | 00..7f (s.u.) | |||
bx | 40 Substain | 00/7f | |||
bx | 41 Portamento | 00/7f | |||
bx | 42 Haltepedal 1 | 00/7f | |||
bx | 43 Dämpferpedal | 00/7f | |||
bx | 44 Legato | 00/7f | |||
bx | 45 Haltepedal 2 | 00/7f | |||
bx | 46..4f SoundCtrl | 00..7f (s.u.) | |||
bx | 50..53 allCtrl 05..08 | 00..7f (s.u.) | |||
bx | 54 PortCtrl | 00..7f | |||
bx | 5b..5f EffektCtrl | 00..7f (s.u.) | |||
bx | 60 Data + | 7f | |||
bx | 61 Data - | 7f | |||
bx | 62..63 nicht RPN | 00..7f (s.u.) | |||
bx | 64..65 RPN | 00..7f (s.u.) | |||
M O D E |
All Sound off | bx | 78 | 00 | |
Reset all Controllers |
bx | 79 | 00 | ||
Local on/off | bx | 7a | 00/7f | ||
all Notes off | bx | 7b | 00 | ||
Modes | bx | 7c..7f | 00..0a | ||
Program Change | c. | Nummer | |||
Channel Aftertouch | d. | Druck | |||
Pitch Weel | ex | LSB | MSB | ||
S Y S T E M |
System Exlusive | f0 | |||
C O M O N |
Time Code MTC |
f1 | Nachrichtetyp | ||
Song Position | f2 | LSB | |||
Song Select | f3 | Song Nummer | |||
Tune Reuest | f6 | ||||
EOX | f7 | ||||
R E A L |
Timing Clock | f8 | |||
Start | fa | ||||
Continue | fb | ||||
Stop | fc | ||||
Active Sensing | fe | ||||
System Reset | ff | ||||
Übersicht zu dem MIDI-Befehlen |
System - Meldungen gehen an alle angeschlossenen Slaves und enthalten deshalb keine Kanal - Nummer im niederwertige Befehl - Nibble, sondern das niederwertige Nibble (D3, D2, D1, D0) spezifiziert die Systemmeldung.
Beispiel:
Der "Note On" ist ein 3 Byte-Befehl 9x, Tonhöhe, Velocity). Die Bytes haben die Bedeutung:
Der Befehl "Note on" bestehe aus den Bytes
0x90, 0x3c, 0x40: 0x90: bedeutet 9 = Note On, 0 = Kanal-Nummer, 0x3c: bedeutet Taste 60, 0x40: bedeutet mittler Anschlagstärke 64.
Channel Voice Message-Befehle werden zum elektrisch gesteuerten "Spielen der Tastatur" oder eines anderen Controllers (auch z.B. für eine Lichtorgel) verwendet. Es gibt 7 verschiedene Status-Typen (8, 9, a, b, c, d, e, f):
Übersicht zu den Channel Voice Messages | ||||
Befehl | Staus- Byte | 1. Daten- Byte |
2. Daten- Byte |
Anzahl Bytes |
Note Off | 80..8f | Tonhoehe | Ausschwingen | 3 |
Note On | 90..9f | Tonhoehe | Anschlag | 3 |
Poly Key Pressure | a0..af | Tonhoehe | Druckstaerke | 3 |
Control Change | b0..bf | Controller | Wert | 3 |
Program change | c0..cf | Nummer | 2 | |
Channel Pressure | d0..df | Druckstaerke | 2 | |
Pitch Wheel Change | e0..ef | LSB | MSB | 3 |
Das niederwertige Nibble im Status - Byte legt die Kanal-Nummer fest. Die Tonhöhe wird bei "Note On" und "Note Off" im 1. Dabenbyte als Zahl 0x01 .. 0x7f gesendet.
Note On | 9x: Kanal-Nummer im niederwertigen Nibble x | 0x45: Kammerton a | 0x80: mittlere Anschlagstärke 0x00: Note off |
Note Off | 8x: Kanal-Nummer im niederwertigen Nibble x | 0x45: Kammerton a | 0x40: falls keine Ausschwingdynamik vorhanden ist |
Hat ein Gerät keinen dynamischen Anschlag, so sollte bei "Note On" für den Anschlag (Velocity) 0x40 gesendet werden. "Note On" kann als "Note Off" wirken, wenn Anschlag 0x00 verwendet wird.
Nach erfolgtem Anschlag kann mit "Aftertouch key´s" ein "Nachdröcken" auf die Taste angegeben werden. Dies entspricht einem erneuten Dröcken einer bereits angeschlagenen Taste.
Mit Control Change können Instrument-Effekte gesteuert werden, die keine Tastatur benötigen (Modulation.Weel, Breath-Control, Substain-Pedal, Portamento-Pedal, usw.). Nach dem Status-Byte wird das Identifizierungs-Byte für den Contoller und ein Wert öbertragen, der die folgende Bedeutung hat:
Die MIDI-Bezeichnung für Noten-Höhen sind an die Musiker-Bezeichnung angelehnt. Der Kammerton "a" mit f = 440 Hz hat die Midi-Nummer a3 = 0x2d = 45.
Tabelle der MIDI - Töne (Tasten Nummer t = 0 .. 127) | ||||||||||||||
Midi | Klavier | Musiker | c | c# | d | d# | e | f | f# | g | g# | a | a# | h |
c0 | C[3] | S | 00 | 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 0a | 0b |
c1 | C[2] | s | 0c | 0d | 0e | 0f | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |
c2 | C[1] | K | 18 | 19 | 1a | 1b | 1c | 1d | 1e | 1f | 20 | 21 | 22 | 23 |
c3 | C | g | 24 | 25 | 26 | 27 | 28 | 29 | 2a | 2b | 2c | 2d | 2e | 2f |
c4 | c | k | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 3a | 3b |
c5 | c^1 | 1 | 3c | 3d | 3e | 3f | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 |
c6 | c^2 | 2 | 48 | 49 | 4a | 4b | 4c | 4d | 4e | 4f | 50 | 51 | 52 | 53 |
c7 | c^3 | 3 | 54 | 55 | 56 | 57 | 58 | 59 | 5a | 5b | 5c | 5d | 5e | 5f |
c8 | c^4 | 4 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 6a | 6b |
c9 | c^5 | 5 | 6c | 6d | 6e | 6f | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 |
c10 | c^6 | 6 | 78 | 79 | 7a | 7b | 7c | 7d | 7e | 7f | ||||
Musiker-Bezeichnung S= SubSubKontra-, s=SubKontra-, K=Kontra-Oktave, g=große-, k=kleine-, 1=eingestrichene-, 2=zwei-gestrichene Oktave, usw. |
Die Klavier-Tasten-Nummer entspricht der MIDI-Nummern t. Diese MIDI-Nummer t entspricht einer festgelegte Frequenz. Der Kammerton "a" hat die Midi-Nummer t = 45 und mit der Formel
f(t) = 32.7031957 . 2^t/12 Hz mit t = 0 .. 127 |
ergibt sich die temperierte Frequenzen f(45) = 440 Hz. Die folgenden Tabelle enthält die temperierte Frequenzen.
temperierte MIDI-Frequenzen f(t) = 2^(t+60.37631655)/12 Hz mit t = 0 .. 127 | ||||||||||||
c | c# | d | d# | e | f | f# | g | g# | a | a# | h | |
c0 | 32.70320 | 34.6478 | 36.7081 | 38.8908 | 41.2034 | 43.6535 | 46.2492 | 48.9994 | 51.9130 | 55.000 | 58.2704 | 61.7354 |
c1 | 65.4064 | 69.2956 | 73.4162 | 77.7817 | 82.4069 | 87.3070 | 92.4986 | 97.9988 | 103.826 | 110.000 | 116.540 | 123.470 |
c2 | 130.812 | 138.591 | 146.832 | 155.563 | 164.813 | 174.614 | 184.997 | 195.997 | 207.652 | 220.000 | 233.081 | 246.941 |
c3 | 261.625 | 277.182 | 293.664 | 311.127 | 329.627 | 349.228 | 369.994 | 391.995 | 415.304 | 440.000 | 466.163 | 493.883 |
c4 | 523.251 | 554.365 | 587.329 | 622.253 | 659.255 | 698.456 | 739.988 | 783.990 | 830.609 | 880.000 | 932.327 | 987.767 |
c5 | 1046.50 | 1108.73 | 1174.65 | 1244.50 | 1318.51 | 1396.91 | 1479.97 | 1661.21 | 1760.000 | 1864.65 | 1975.53 | |
c6 | 2093.00 | 2217.46 | 2349.31 | 2489.01 | 2637.02 | 2793.82 | 2959.95 | 3135.96 | 3322.43 | 3520.000 | 3729.31 | 3951.06 |
c7 | 4186.00 | 4434.92 | 4698.63 | 4978.03 | 5274.04 | 5587.65 | 5919.91 | 6271.92 | 6644.87 | 7040.000 | 7458.62 | 7902.13 |
c8 | 8372.01 | 8869.84 | 9397.27 | 9956.06 | 10548.00 | 11175.30 | 11839.80 | 12543.80 | 13289.70 | 14080.000 | 14917.20 | 15804.20 |
c9 | 16744.00 | 17739.60 | 18794.5. | 19912.10 | 21096.10 | 22350.60 | 23679.60 | 25087.70 | 26579.50 | 28160.000 | 29834.40 | 31608.50 |
c10 | 33488.00 | 35479.30 | 37589.00 | 39824.20 | 42192.30 | 44701.20 | 47359.20 | 50175.40 |
Natürlich ist Musik mehr als eine Ansammlung von Tönen. Für das Einschwingverhalten und die Oberwellen der Töne gibt es zugeordnete parametrisierte Verfahren, die von dem Abspielgerät abhängen.
Bit: | 7 | 6 | 5 | 4 | 3 | 2 | 1 | 0 |
Status-Byte: | 1 | x | x | x | x | x | x | x |
Daten-Byte: | 0 | x | x | x | x | x | x | x |
Die folgenden Industrien sind direkt an diesen Entwicklungen beteiligt:
|
Hierbei ist die Entwicklung, der Transport und die interaktiver
Verwendung von multimedialen Dokumente wesentlich. Einige Stichpunkte sind:
|