Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
ELECTRONIC ELEMENT AND ELECTRICALLY CONTROLLED DISPLAY ELEMENT
Document Type and Number:
WIPO Patent Application WO/2020/125839
Kind Code:
A1
Abstract:
The invention relates to the use of an electronic element (E) with at least one processor- and memory function (27b), for use as an arithmetic element (6) and/or computer element (6) and/or device element (2a) and/or component element (2a), the electronic element comprising an identification- (1c) and/or authentication function (1c) of a user in a digital network (12) by means of a computer-assisted, at least partly automated and/or autonomously ordered encrypted method (14e), and/or comprising a computer-assisted, at least partly automated and/or autonomously ordered control function (1b), wherein the electronic element (E) consists of at least one hardware element (27) and/or software (26).

Inventors:
TÜNTE UDO (DE)
Application Number:
PCT/DE2019/000339
Publication Date:
June 25, 2020
Filing Date:
December 18, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
GRID INVENT GGMBH (DE)
International Classes:
G06F21/31; H04W12/06; G06F21/60; G06F21/78; H04L9/32; H04L29/06
Foreign References:
US20170103388A12017-04-13
DE102006023949A12007-11-22
DE202004016140U12005-01-13
DE202016105474U12016-11-17
DE102014116060A12016-05-04
US20100073125A12010-03-25
US0466000A1891-12-29
Download PDF:
Claims:
Patentansprüche:

1. Verwendung eines elektronischen Elementes (E) mit wenigstens einer Prozessor- und Speicherfunktion (27b) und/oder einer Originalkennung und/oder einem Original- kennungselement, vorzugsweise bestehend aus mindestens einem Hardwarelement (27) und/oder einer Software (26) und/oder APP Anwendung (26), insbesondere zur digita- len Kommunikation (8a) und/oder zum Datenaustausch (8b) und/oder zum Daten- streaming (8b) zwischen wenigstens zwei elektronischen Elementen (E), insbesondere wobei das elektronische Element (E) und/oder die Originalkennung wenigstens eine einmalige Originalkennung für einen Nutzer (7) und/oder für eine Nutzanwendung (7a) und/oder für eine Entität (7a) enthält, vorzugsweise wobei das Hardwareelement (27) die Originalkennung und/oder gespeicherte digitale Daten der Originalkennung enthält und/oder erzeugt und/oder verarbeitet und/oder insbesondere wobei die Originalken- nung wenigstens, das vorzugsweise physische, Originalkennungselement aufweist und/oder das Originalkennungselement zur Erzeugung der digitalen Daten verwendet wird, vorzugsweise wobei die Originalkennung aus dem Originalkennungselement mit- tels eines spezifischen und/oder biometrischen Bildscans erzeugt wird und/oder als ein, vorzugsweise physisches, Originalkennungselement enthalten ist, vorzugsweise wobei die digitalen Daten durch die quantitative und/oder qualitative digitale Erfassung, vor- zugsweise durch Messung von in dem Originalkennungselement enthaltenen Informati- onen und/oder Eigenschaften, insbesondere zur Authentifizierung des Nutzers (7) und/oder der Nutzanwendung (7a) und/oder der Entität (7a), erzeugt werden, für ein Element (le), vorzugsweise zur Verwendung als ein Rechner- (6) und/oder Compute- relement (6) und/oder als ein Vorrichtungs- (2a) und/oder Bauteilelement (2a), vor- zugsweise Anzeige- (2) und/oder Fahrzeug- (10) und/oder Roboter- (9) und/oder Fort- bewegungsmittel- (10) und/oder Elektrogeräte- (2b) und/oder Mobiltelefon- (2b) und/oder Smartphone-(2b) und/oder Satellitentelefon (2b)- und/oder Mess- (2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Datenverarbeitungseinrichtungs- (2b) und/oder Nutzanwendungselement (7a), insbesondere mit wenigstens einer Identifikations- (lc) und/oder Authentifizierungs- funktion (lc) mittels wenigstens eines computergestützten, zumindest teilweise automa- tisiert und/oder autonom abfolgenden, verschlüsselten Verfahrens (14e) mit wenigstens einem Verschlüsselungscode (28) und/oder einem ID - Code ( Identity, Identitätscode) (28c) für wenigstens einen Nutzer (7) und/oder eine Nutzanwendung (7a) und/oder eine Entität (7a) vorzugsweise in einem digitalen Netz (12), vorzugsweise einem öffentli- chem digitalen Netz, insbesondere dem Internet und/oder dem World Wide Web, insbe- sondere zur gegenseitigen Authentifizierung einer Mehrzahl von Nutzem (7) und/oder Nutzanwendungen (7a) und/oder Entitäten (7a), und/oder insbesondere mit einer com- putergestützten, zumindest teilweise automatisiert und/oder autonom abfolgenden Steuerungs- (lb) und/oder Regelungs- (lb) und/oder Mess- (lb) und/oder Sensorfunkti- on (lb), wobei das elektronische Element (E) und/oder das Hardwareelement (27) we- nigstens eine elektronische Schaltung, vorzugsweise wenigstens einen integrierten Schaltkreis (IC, Integrated Circuit), vorzugsweise in wenigstens einem Chip (27c) und/oder Chipelement (27c), enthält, und/oder insbesondere aus wenigstens einer aus- wechselbaren physischen Chipkarte (27c) und/oder Speicherkarte (27c) und/oder einer eingebauten physisch nicht auswechselbaren Chipkarte (27c) und/oder Speicherkarte (27c) und/oder einem chipkarten- und/oder speicherkartenidentischen Funktion aufwei- sendem Element (27c) besteht, insbesondere ausgebildet als All-In-Element/-Modul/- Smartcard (Omnicard,0) und/oder als wenigstens eine SIM Karte (la) (Subsriber Identitity Module) und/oder USIM Karte (la) (Universal Subsriber Identitity Module) und/oder embedded SIM (la) (eSIM) und/oder SIM- kartenidentische Funktion auf- weisendem Element (la), vorzugsweise mit UICC- Hardwareelement(la) (Universal In- tegrated Circuit Card) und/oder mit SIM und/oder USIM - Software Anwendung (la) und/oder mit integrierter NFC-Funktion (la) und/oder NFC Hardwareelement (la) ( Near Field Communication), wobei die digitale Kommunikation (8a) und/oder der Da- tenaustausch (8b) und/oder das Datenstreaming (8b) vorzugsweise auf technischer Ba- sis elektromagnetischer Wellen, insbesondere Radio- und/oder Mikro- und/oder Ultra- schall- und/oder Lichtwellen und/oder - impulsen arbeitet, vorzugsweise wobei das di- gitale Netz (12) aus einem Kabel- und/oder Funk (lo) - und/oder Licht- und/oder Infra- rot- und/oder Ultraschallnetz besteht, vorzugsweise über eine Funkverbindung (lp) auf Basis einer G - Frequenz Funkverbindung (lp), vorzugsweise auf technologischer Basis von 3G und/oder 4G und/oder 5G und/oder 6G und/oder einer Mobilfunkverbindung (lp) und/oder Satellitenverbindung (lp) und/oder auf technischer Basis einer Bluetooth- (B) und/oder BLE- (B) und/oder Bluetosec- (B) und/oder NFC- (B) und/oder RFED- (B) und/oder WLAN- (B) und/oder WIFI- (B) und /oder LiFi- (B) und/oder Infrarotverbin- dung (B) besteht, insbesondere wobei die Kanalbandbreite der Funkverbindung (lp) im Bereich von 1 Hz bis 99 MHz und/oder 100 MHz (Megahertz) bis 100 GHz ( Gi- gahertz) und/oder von 100 GHz bis 1000 Ghz liegt, vorzugsweise bei 800 MHz bis 30 GHz, insbesondere bei 3 GHz bis 6 GHz, vorzugsweise wobei das elektronische Ele- ment (E) und/oder das Hardwarelement (27) und/oder das Element (le) wenigstens Hardwaremodul (27a), vorzugsweise ein Funk- (23) und/oder Sender- (23) und/oder Empfänger- (23) und/oder Antennen- (23) und/oder Frequenz- (23) und/oder Ortungs- (23) und/oder Anzeige- (15) und/oder Touchscreen- (15) und/oder Tastatur- (15) und/oder Kamera- (15) und/oder Videokamera- (16) und/oder Wärmebildkamera- (20) und/oder Scanner- (17) und/oder Infrarotlicht- (19) und/oder Lautsprecher- (21) und/oder Mikrofon- (22) und/oder Lidar-/Ladar- (24) und/oder Ultraschallsensor- (24) und/oder Aktoren- (24) und/oder Laser- (24) und/oder Radar- (24) und/oder Konnekti- vitäts- (24) und/oder Telemetrie- (24) und/oder Telematik-(24) und/oder Steuerungs- (6b) und/oder Regelungs- (6b) und/oder Mess- (6b) und/oder Datenerfassungseinrich- tungs- (6b) und/oder Datenverarbeitungseinrichtungs- (6b) und/oder Sensormodul (18) enthält, vorzugsweise wobei das elektronische Element eine digitale Verknüpfung (lj) mit einer IT- Infrastruktur (11) (Information Technology) und/oder Computercloud (13a) über ein Rechnemetz aufweist, insbesondere wobei das elektronische Element (E) und/oder die die IT Infrastruktur (11) und/oder das digitale Netz (12) wenigstens das verschlüsselte Verfahren (14e) und/oder ein verschlüsseltes Buchführungssystem (14), insbesondere ein Blockchainverfahren (14a), aufweist, insbesondere wobei wenigstens eines der Hardwaremodule (27a), vorzugsweise vorzugsweise das Kamera- (15) und/oder das Scanner- (17) und/oder das Sensor- (18) und/oder das Infrarotlicht- (19) und/oder das digitale Mess- (6b) und/oder Datenerfassungseinrichtungs- (6b) und/oder Datenverarbeitungseinrichtungsmodul (6b) und/oder ein digital verbundenes und/oder verbindbares Mess- (2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Daten- Verarbeitungseinrichtungselement (2b) zur Erkennung und/oder Erfassung und/oder Verarbeitung von quantitativen und/oder qualitativen Informationen und/oder Eigen- schaften, insbesondere zur Erzeugung der digitalen Daten des Originalerkennungsele- mentes vorgesehen ist, wobei die Software (26) und/oder APP Anwendung (26) eine computergestützte Anwendung, insbesondere ein Programmmittel zur Bilderkennung (26a), insbesondere Bilderkennungssoftware, vorzugsweise zur Erkennung des biome- trischen und/oder spezifischen Bildscans enthält, wobei das elektronische Element (E) den Verschlüsselungscode (28) aufweist und/oder mit dem Verschlüsselungscode (28) digital verknüpft ist, insbesondere wobei der Verschlüsselungscode (28) in der IT - Infrastruktur (11), vorzugsweise bei einer autorisierten Prüfeinrichtung und/oder autori- sierten Behörde, gespeichert ist, insbesondere wobei der Verschlüsselungscode (28) mit dem einmaligen, persönlichen ID - Code des Nutzers (7) digital verknüpft ist, vorzugsweise wobei der Verschlüsselungscode (28) wenigstens einen Schlüssel und/oder ein digital verknüpftes Schlüsselpaar aufweist, insbesondere wobei ein Schlüssel die Originalkennung und/oder die gespeicherten digitalen Daten der Original- kennung, insbesondere des physischen Originalkennungselementes, vorzugsweise die digitalen Daten des spezifischen und/oder biometrischen Bildscans enthält, insbesonde- re wobei ein Iris- und/oder Fingerabdruck- und/oder Gesichtscan zur Authentifizierung und Identifizierung in der IT-Infrastruktur (11) vorgesehen ist, vorzugsweise wobei zur Identifizierung und Authentifizierung des Bildscans eine automatisierte, digitale Ver- knüpfung des elektronischen Elementes des Nutzers (7) mit der IT Infrastruktur herge- stellt wird, vorzugsweise wobei die digitalen Bilddaten des Bildscans einen sekunden- genauen Zeitstempel aufweisen, insbesondere wobei die übertragenen Daten mit den gespeicherten digitalen Daten der Originalkennung (Stammbild Daten) durch die Bil- derkennungssoftware verglichen werden, vorzugsweise wobei die erzeugten digitalen Daten des elektronischen Elementes (E) in der IT- Infrastruktur (11) gespeichert sind oder werden, insbesondere ohne dass diese auf einem lokalen Rechner eines Nutzers (7) installiert und/oder gespeichert sind, wobei das für das verschlüsselte Verfahren (14e) verschiedene Möglichkeiten der Abfolge der Verfahrenschritte vorgesehen sind und/oder vorzugsweise wobei das elektronische Element (E) wenigstens ein computer- gestütztes Verfahren, zur zumindest teilweise automatisiert und/oder autonom abfol- genden Steuerung (lb), insbesondere Fernsteuerung (lb) und/oder Selbststeuerung (lb) und/oder Ansteuerung (lb) und/oder Regelung und/oder Kontrolle (lb) eines und/oder einer Mehrzahl von Fahrzeugen (10) und/oder Robotern (9) und/oder Fortbewegungs- mitteln (10) und/oder Elektrogeräten (2b) und/oder Nutzanwendungen (7a) und/oder Anzeigen (2) enthält, insbesondere mittels wenigstens eines Hardwaremoduls (27a), vorzugsweise des Steuerungs- (6b) und/oder Regelungs- (6b) und/oder Mess- (6b) und/oder Datenerfassungs- (6b) und/oder Datenverarbeitungseinrichtungs- (6b) und/oder Telemetrie- (24) und/oder Telematik-(24) und/oder Sensormoduls (18), wobei die Ansteuerung (lb) des elektronischen Elementes (E) von einem entfernten Ort, vor- zugsweise über eine drahtlose Verbindung (ln), von wenigstens einem externen, wenig- stens ein elektronisches Element (E) aufweisendem Rechner/Computer (6b), insbeson- dere eines zentralen und/oder dezentralen Kontrollzentrums (7b), erfolgt, insbesondere zur Verkehrssteuerung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder - telematik (8), wobei das elektronische Element (E) zur Veränderung und/oder Verbes- serung und/oder Gewährleistung von funktionell technischen, insbesondere digitalen, Eigenschaften und/oder Funktionen des Elementes (le) und/oder des Hardwarelementes (27) und/oder wenigstens eines der Hardwaremodule (27a) und/oder der Software (26) und/oder der APP Anwendung (26) und/oder der Identifikations- (lc) und/oder Authen- tifizierungsfunktion (lc) und/oder der Steuerungs- (lb) und/oder der Regelungs- (lb) und/oder der Mess- (lb) und/oder der Sensorfunktion (lb) und/oder des digitalen Net- zes (12) und/oder des Rechnemetzes und/oder der IT- Infrastruktur (11) und/oder der drahtlosen Verbindung (ln) und/oder des Funknetzes (lo) und/oder der Computercloud (13a) und/oder des verschlüsselten Buchführungssystems (14) und/oder des verschlüs- selten Verfahrens (14e) und/oder des Blockchainverfahrens (14a) und/oder des Rech- ner-und/oder Computerelementes (6) und/oder des Vorrichtungs- und/oder Bauteilele- mentes (2a) und/oder des Fahrzeug- (10) und/oder des Roboter- (9) und/oder des Fort- bewegungsmittel- (10), und/oder des Elektrogeräte- (2b) und/oder des Mobiltelefon- (2b) und/oder des Smartphone-(2b) und/oder Satellitentelefon (2b)- und/oder Mess- (2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Datenverarbeitungseinrich- tungs- (2b) und/oder des Nutzanwendungs- (7a) und/oder des Anzeigeelementes (2) vorgesehen ist und/oder elektrisch angesteuertes Anzeigeelement (2) zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit dem in- tegrierten elektronischen Element (E), wobei das Anzeigeelement (2) eine Dicke von 0,3 bis 4,5 mm aufweist und/oder das in dem Anzeigeelement (2) integrierte elektroni- sche Element (E) eine maximale Dicke von 1 mm aufweist.

2. Verwendung nach Anspruch 1, wobei dass das elektronische Element (E) und/oder die Originalkennung und/oder das Originalkennungselement a) für ein Element (le) zur Verwendung für ein, vorzugsweise Geräte- (2b), Au- tomaten- (2b), Maschinen- (2b), Haushaltsgeräte- (2b), Verpackungs-, Schild-, Verkehrsinfrasruktur-, Fahrweg-, Fahrzeugkennzeichnungs- (31), digitales amt- liches Kennzeichen-, Verkehrsschild-, Kunst-, Kunstwerk-, Edelmetall-, Zah- lungsmittel-, Schmuck-, Uhr-, Kleidung-, Accessoire-, Bilderrahmen-, Haus- haltsgegenstands-, Belags-, Boden-, Wand-, Decken-, Möbel-, Dekorations-, In- nenausbau-, Leisten-, Profil-, Kanten-, Tür-, Fenster-, Sichtschutz-, Teppich-, Markisen-, Vorhang-, Rolladen-, Jalousie-, Fassaden-, Tapeten-, Car-Interior-, Car-Exterior-, LKW Planen-, Mobiltelefonzubehör-, Karosserie-, Sanitärobjekt-, Armaturen-, Energietechnik-, Brennwerttechnik-, Heizungs-, Ofen-, Klima-, Lüftungs-, Elektroinstallations-, Sensor-, Signalvorrrichtungs-, Optikvorrich- tungs-, Akustikvorrichtungs-, Werkzeug-, Leuchten-, Steckdosen-, Schalter-, Schloss-, Türschloss-, Gebäude-, Architektur-, Design-, und/oder Interieurele- ment für den Innen- und/oder Outdoorbereich und/oder b) für ein Element (le) zur Verwendung für ein, vorzugsweise Platinen-, Hard- warechip-, Steuerwerk- und/oder Rechenwerk, ALU- (Arithmetisch-Logische Einheit) und/oder Speicherwerk- und/oder Peripheriegerät-, insbesondere Ein- gabe-und/oder Ausgabe- und/oder Einlesegerät- und/oder Motherboards- oder Mainboard- und/oder digitales IO- Geräte- (Input, Output) und/oder Prozessor- und/oder Arbeitsspeicher- (RAM) und/oder Festwertspeicher- (ROM) und/oder Massenspeicher-, insbesondere Festplattenlaufwerk-, Flash-, Speicher-, CD- ROM-Laufwerk-, DVD-Laufwerk-, Zip-Laufwerk-, Jaz-Laufwerk-, Speicher- medium- und/oder Erweiterungskarten-, Grafikkarten-, Soundkarten-, Netz- werkkarten-, TV-Karten-, ISDN-Karten-, USB-, USB-Karten-, USB-Stick-, PhysX-Karten-, Router-, Mobilteilrechner-, Mobilcomputer-, Mobiltelefon-, Smartphone-, Satellitentelefon-, Telefon-, Funkgerät-, PDA-, Tablet-, PC-, Ser- ver-, Spielkonsolen-, Netbook-, Notebook-, Großrechner-, Supercomputer-, Quantencomputer-, Kamera-, Scanner-, Sensor-, Display-, Monitor-, Bild- schirm-, Screen-, Smart-Display-, Touchscreen-, Projektionsvorrichtungs-, Beamer-, 2D/3D/4D-Projektionsvorrichtungs-, Werbeschild-(30), Femseher- (30), Smartcard-, Integrated Circuit Card- (ICC) , Unterhaltungselektronik-, Grafik-, Audio-, Tonaufnahme-, Kopfhörer-, Earphone-, Spracherkennungs-, Sprachsteuerungs- und/oder Gimbalelement und/oder c) für ein Element (le) zur Verwendung für ein, vorzugsweise Fahrzeug-, vor- zugsweise Landfahrzeug- (40) und/oder Landroboter- (40), insbesondere Kraftfahrzeug-, vorzugsweise PKW-, LKW-, Omnibus-, Zweirad-, Motorrad-, E-Bike-, E-Roller-, Caravan-, Nutzfahrzeug-, Kettenfahrzeug-, Anhänger- LKWAuflieger-, Container-, Seecontainer-, und/oder als spurgebundenes Fahr- zeug- und/oder spurgebundenes Roboter-, vorzugsweise schienen- und/oder seil- und/oder signalgebebundenes, vorzugsweise licht- und/oder tonsignalgebundes Fahrzeug- und/oder Roboterelement, insbesondere Strassenbahn-, Zug-, Seil- bahn-, Kettenbahn- und/oder Flugmobile-, insbesondere Luftfahrtfahrzeug- (42) und/oder Luftfahrtroboter- (42), insbesondere Flugzeug- (42), Hubschrauber- (42) Drohnen- (37), Quadrocopter- (38), Multicopter (38), Ballon-, Zepplin- und/oder Raumfahroboter-(43) und/oder Raumfahrzeug- (43), vorzugsweise Raketen-, Raumschiff-, Satelliten-Raumsonde- und/oder Wasser- (41) und/oder Unterwasserfahrzeug- und/oder -Unterwasserroboter- (41 ) vorzugsweise Schiff- , Boot- und/oder Unterwasserbootelement und/oder d) für ein Element (le) zur Verwendung für ein, vorzugsweise Landwirtschafts-, und/oder Industrie- und/oder Logistik- und/oder Produktions- und/oder Gesund- heits- und/oder Medizin- und/oder Rettungs- und/oder Haushalts- und/oder Pflege- und/oder Care- und/oder Spielzeug- und/oder Service- und/oder Perso- nal- und/oder Transport- und/oder Erkundungs- und/oder Analyse- und/oder Mess- und/oder Wissenschafts- und/oder Umwelt- und/oder Energie- und/oder Klima- und/oder Weltraum- und/oder Schutz- und/oder Kontroll- und/oder Poli- zei- und/oder Naturschutz- und/oder Musik- und/oder Kunst- und/oder Sport- und/oder Medien- und/oder Werbe- und/oder Bildungs- und/oder Schul- und/oder Lehr- und/oder Finanz- und/oder Asset- und/oder Supply Chain Ma- nagement- und/oder IoT-(Intemet of Things) -technikelement und/oder - nutzanwendungselement (7a) und/oder e) als technische Neuerung in der Kryptografie oder Kryptologie, zur Erzeugung einer höchst sicheren Authentifizierung durch das erfindungsgemäße verschlüs- selte Verfahren (14e) mittels einer kryptologisch neuen Methode, wobei die Verschlüsselung durch eine Verifizierung von Messdaten der Originalkennung und/oder des Originalkennungselementes erfolgt, wobei das elektronische Ele- ment weder durch physischen noch durch virtuellen Zugriff durch Hacker aus- lesbar und/oder kopierbar ist, wobei zum Entschlüsseln kein geheimer Schlüssel benötigt wird und keine Verschlüsselung verwendet wird, bei der aus einem Klartext mithilfe eines Schlüssels ein Geheimtext erzeugt wird, als Alternative zur Zwei-Faktor-Authentifizierung (2FA) und/oder der Ende zu Ende Ver- schlüsselung und zur Vermeidung eines byzantinischen Fehlers in einem IT- System und/oder f) zur höchst sicheren Authentifizierung von Personen und/oder Entitäten jedwe- der Art, vorzugsweise zur Prüfung und Verifizierung der Echtheit und Identitität des Nutzers (7) und/oder der Nutzanwendung (7a) und/oder der Entität (7a), vorzugsweise von Personen und/oder Dokumenten und/oder Kunstwerken und/oder Zahlungsmitteln und/oder Materialien und/oder Stoffen und/oder Sub- stanzen und/oder Flüssigkeiten, vorzugsweise von Chip und/oder Speicherkar- ten, Personalausweisen und/oder Reisepässen und/oder Versicherungsausweisen imd/oder EC-Cash-Karten und/oder Kreditkarten und/oder Smartchipkarten und/oder Geldscheinen und/oder Wertmarken und/oder, insbesondere wertvol- len Wertstoffen, vorzugsweise von Edelmetallen und/oder vorzugsweise zur höchst sicheren Authentifizierung von Personen, insbesondere zur gegenseitigen Authentifizierung einer Mehrzahl von Nutzem (7) und/oder Nutzanwendungen (7a) und/oder Entitäten (7a) vorzugsweise in einem digitalen Netz (12), vor- zugsweise öffentlichen digitalen Netzen, insbesondere dem Internet und/oder dem World Wide Web und/oder g) zur Erzeugung und Verwendung wenigstens eines autarken und/oder privaten und/oder öffentlichen und/oder staatlichen und/oder zentralen und/oder dezen- tralen, vorzugsweise drahtlosen digitalen Netzes (12) und/oder Rechnemetzes, vorzugsweise wenigstens eines peer to peer Netzwerkes mit Blockchaintechno- logie, ausgebildet als Funknetz, insbesondere auf Basis der 5G Technologie, als Alternative zum kabelgebundenem Festnetz, vorzugsweise ohne eine Verbin- dung, insbesondere ohne Kabelverbindung und/oder Funkverbindung, zu einem bestehenden öffentlichen Netz, insbesondere zum Internet (World Wide Web, WWW) und/oder insbesondere mit Ausschluss eines Single Point of Failure und/oder eines Single Point of Control und/oder h) zur Erzeugung einer, vorzugsweise unabhängigen nationalen und/oder europäi- schen digitalen Infrastruktur vorzugsweise mittels der 5G Technologie und da- durch Ausschluss der Abhängigkeit von insbesondere amerikanischen und chi- nesischen IT- Konzernen und der damit verbundenen und nicht beherrschbaren Cyber- und Datenschutzrisiken und/oder i) zur Erzeugung einer IT -Infrastruktur (11) und/oder eines digitalen Netzwer- kes (12), insbesondere 5G Netzwerkes, für die Erde und/oder einen Himmels- körper- und/oder den Weltraum, insbesondere mit Satelliten und/oder Raum- sonden und/oder Weltraumbasisstationen und/oder Himmelskörperbasisstatio- nen und/oder j) zur Erzeugung eines Ausschlusses von digitalen Manipulationen und zur Effi- zienzsteigerung der, insbesonderen digitalen, Prozesse und/oder Handlungen, eines Nutzers und/oder einer Gruppe von Nutzern, insbesondere einer Gemein- schaft und/oder einer Nation und/oder eines Staates und/oder einer Mehrzhahl von Nationen und/oder Staaten, insbesondere zur Verbesserung der Kontrolle und Einhaltung von Gesetzen, Regeln, Normen und/oder Zielsetzungen, insbe- sondere von Umwelt-, Klima-, Energiezielen und/oder der Prozesstransparenz und/oder Prozessschnelligkeit und/oder der Wirtschaftlichkeit und/oder zur Ge- währleistung des Funktionierens einer Demokratie und Rechtstaatlichkeit und/oder der Gewährleistung der verfassungsmässigen Grundrechte, insbeson- dere der Menschenrechte zur Stärkung der Unabhängigkeit, Freiheit und De- mokratie Europas undyoder k) zur leistungsfähigen und wirtschaftlichen digitalen Grundversorgung jedes europäischen Bürgers und der europäischen Wirtschaft durch die 5G Technologie und/oder l) zur Erzeugung und signifikanten Verbeserung der Leistungen des digitalen Netzes (12) ein drahtloses, digitales Netz (12) durch die Verwendung der 5G und zukünftig 6G, Technolgie mit Datenraten bis zu 10 Gbit/s, mit erhöhter Frequenzkapazität und Datendurchsatz, mit Echtzeitübertragung, mit Ansprechbarkeit von weltweit 100 Milliarden Mobilfunkgeräte gleichzeitig und Latenzzeiten von unter 1 ms und/oder m) zur Erzeugung eines schnellen, kostengünstigen und flächendeckenden digita- len 5G Netzes, insbesondere durch Verwendung und Umnutzung (Swap) der zukünftig leistungsmässig veralteten 2-4 G Infrastrukturen, etwa durch Nutzung vorhandener Basisstationen und vorhandener Frequenzbandbreiten von 2 - 4 G und/oder n) zur Erzeugung eines kostengünstigen 5G Netzes durch Vermeidung eines Neu- baus von 5G Basisstationen, insbesondere zur Vermeidung einer höheren Basis- stationdichte, durch die Notwendigkeit eines engmaschigeren Funkzellenaus- baus für Frequenzbandbreiten im FR2 Frequenzbereiches oberhalb von 6GHz, insbesondere im Bereich von 28 Ghz bis 40 GHz, oder geplant bis zu 80GHz, die von Wissenschaftlern als gesundheitsschädlich eingestuft werden und/oder o) als Alternative zu einer mangelhaften Funkübertragung von 5G bei Verwen- dung von Frequenzen oberhalb von 28 GHz, da Funkwellen im Bereich ab 28 GHz einfache Hindernisse wie Wände oder Bäume nicht durchdringn können und physikalisch bedingt die Sendereichweite bei höheren Frequenzen immer mehr abnimmt und/oder p) zur Erzeugung eines gesundheitlich gering bedenklichen 5G Netzes durch Ver- wendung der vorhandenen, gesundheitlich erprobten FR1 Frequenzbandbreiten von 2 - 4G unterhalb von 6 GHz und/oder q) zur höchst sicheren, streng geheimen, Identifikation und/oder Authentifizierung eines Nutzers (7), insbesondere zur sicher beweisbaren und unabstreitbaren Identifikation und/oder Authentifizierung eines Nutzers durch das Blockchain- verfahren (14a) und das verschlüsselete Verfahren (14c) und/ oder r) zur, insbesondere lebenslang gültigen, passwort- und kennwortlosen, Identifika- tion und/oder Authentifizierung eines Nutzers (7) oder EU-Bürgers mit hohem Nutzungskomfort, da keine Passwörter oder PINs mehr benötigt werden und/oder s) zur Verwendung einer lebenslang gültigen digitalen All-In Element/Modul/ Smartcard (Omnicard,0) mit Identifikations- und/oder Authentifizierungsfunk- tion eines Nutzers für sämtliche digitalen Handlungen und/oder digitalen Trans- aktionen wenigstens eines Nutzers und/oder t) zur Vermeidung von„Man in the Middle“ Cyberangriffen, insbesondere durch IMSI Catcher, wie etwa Lauschangriffe durch die vorzugsweise zu höchst siche- re gegenseitige, streng geheime, Identifikation und/oder Authentifizierung von wenigstens zwei Nutzem (7) durch das verschlüsselete Verfahren (14c) und/oder u) zur Verbesserung des Datenschutzes, insbesondere zur höchst sicheren Gewähr- leistung des Datenschutzes, insbesondere personenbezogener Daten, insbeson- dere zum hundertprozentigen Ausschluss von Datenmissbrauch und/oder v) zur Gewährleistung des Rechtes auf informationelle Selbstbestimmung, insbe- sondere zur Gewährleistung des Rechtes auf die Datenhoheit eines Nutzers (7) für seine persönlichen Daten und/oder w) zum wahrheitsgemässen, nichtabstreitbaren Beweis von Handlungen und/oder Transaktionen eines Nutzers und/oder einer Gruppe von Nutzem und/oder x) zum höchst sicheren Ausschluss der Anonymität eines Nutzers im digitalen Netz und/oder y) zum höchst sicheren Ausschluss von Manipulationen durch einen Nutzer und/oder z) zur Gewährleistung der Cybersicherheit und/oder zur Vermeidung von Compu- ter- und/oder Intemetkriminalität, insbesondere von Hacker- und Cyberangriffen und/oder aa) Als Alternative zu einem Virtual Private Network (VPN) mit einer Verbin- dung zu einem öffentlichen Netz, insbesondere dem Internet und/oder bb) zur Erzeugung eines Blockchainverfahren (14a) vorzugsweise zur Kontrolle und/oder Prüfung und/oder Steuerung von Handlungen und/oder Aktionen und/oder Transaktionen wenigstens eines demokratischen Staates insbesondere zur staatlichen Kontrolle von politischen Zielen und/oder cc) zur Erzeugung eines manipulationssicheren Blockchainverfahrens durch einen Konsens- und Blockbildungsmechanismus auf Basis des Proof of Authority - Prinzips mittels der Identifikations- (lc) und/oder Authentifizierungsfunktion (lc) und des verschlüsselten Verfahrens (14e), bei denen sich wenigstens zwei Nutzer (7) gegenseitig authentifizieren und identifizieren und verifizieren und durch Konsensbildung auf die Wahrheit einer Transaktion und/oder Information einigen, diese vereinbaren, und diese Transaktion in einem Block der Block- chain imveränderbar gespeichert wird und/oder dd)zur Erzeugung eines Blockchainverfahren (14a) vorzugsweise für Finanz - und /oder Asset-Transaktionen und/oder den Zahlungsverkehr und/oder Finanz- dienstleistungen und/oder gewerbliche Finanzierungen und/oder Handelsfinan- zierungen und/oder internationale Transaktionen und/oder Börsentransaktionen und/oder vorzugsweise im Bereich des Staats- und/oder Behörden- und/oder Unternehmens- und/oder Versicherungs- und/oder Dienstleistungs- und/oder Bank- und/oder Supply Chain Management- und/oder Internet of Things- (IoT) und/oder Landwirtschafts- und/oder Industrie- und/oder Logistik- und/oder Produktions- und/oder Gesundheits- und/oder Medizin- und/oder Rettungs- und/oder Haushalts- und/oder Pflege-/Care- und/oder Spiel/Spielzeug - und/oder Service- und/oder Personal- und/oder Verkehrs- und/oder Verkehrs- steuerungs- und/oder Transport- und/oder Erkundungs- und/oder Analyse- und/oder Mess- und/oder Wissenschafts- und/oder Weltraum- und/odeT Vertei- digungs- und/oder Schutz- und/oder Überwachungs- und/oder Polizei- und/oder Naturschutz- und/oder Musik- und/oder Kunst- und/oder Sport- und/oder Medi- en- und/oder Werbe- und/oder Bildungs- und/oder Schul- und/oder Lehrwesens und/oder ee) zur Erzeugung von effizienten und kostengünstigen Transaktionen in peer to peer Blockchain Netzwerken, durch z.B. Smart Contracts, und damit der Aus- schluss von Mehraufwänden und/oder der Einbindung von Vermittlern, wie et- wa Anwälten oder Notaren und/oder ff) zur Erzeugung eines Blockchainverfahrens mit geringem Energieverbrauch durch den geringem Rechenaufwand des Konsens- und Blockbildungsmecha- nismus auf Basis des Proof of Authority - Prinzips und/oder gg) zur Erzeugung und Verwendung eines Blockchainverfahrens mit geringen Energieverbrauch, insbesondere durch Ausschluss des immensen Rechenauf- wandes des Minings-, und/oder des Proof of Work - Prinzips mit sehr energie- intensiven Nonce- Hashberechnungen, die bei Kryptowährungs Blockchainsy- stemen verwendet wird , insbesondere bei Bitcoin und/oder hh) zur Verwendung eines Blockchainverfahrens (14), insbesondere eines Block- chainsystems (14a) und/oder Blockchainprinzips (14a) und/oder einer Blockchain (14b) und/oder eines einzelnen Blockes (14d) und /oder eines Blockchainkontos (14c) für wenigstens einen Nutzer (7) und/oder eine Nutzanwendung (7a) und/oder eine Mehrzahl von Nutzem (7) oder Teilnehmern und/oder Nutzan- wendungen (7a) und/oder ii) zur Verwendung eines Blockchainverfahrens (14), wobei ein Block (14d) der Blockchain (14b) und jeder Transaktionsdatensatz wenigstens die Signatur eines Nutzers enhält und/oder einen Zeitstempel aufweist, wobei jeder Nutzer durch das verschlüsselte Verfahren (14e) geheim und sicher authentifiziert wird und/oder jj) zur Verwendung eines Blockchainverfahrens (14), wobei jeder Block (14d) ei- ner Blockchain (14b) vorzugsweise einen Hash, der jüngsten zulässigen Trans- aktion mit Zeitstempel und den Hash des vorherigen Blockes aufweist und/oder kk)zur Verwendung eines Blockchainverfahrens (14), wobei ein und/oder mehrere Nutzer (7) dieselbe Replik eines Transaktionsdatensatzes verwenden, so dass die Transaktionsdaten bei der Übertragung im dem gesamten digitalen Netz (10) und/oder der IT -Infrastruktur (11) synchronisiert bzw. aktualisiert werden und die Transaktion als einzelner unveränderbarer Block (14d) gespeichert wird und/oder

11) zur Verwendung eines Blockchainverfahrens (14), wobei ein Nutzer (7) oder Teilnehmer (7) in einer Gruppe von mehreren Transaktionsteilnehmem insbe- sondere als Prüfer, vorzugsweise zur Prüfung der Zulässigkeit einer Transakti- on, vorgesehen ist und die Transaktion durch seine Signatur freigibt und/oder mm) zur Verwendung eines energieschonenden Blockchainverfahrens (14), wobei in der Blockchain (14b) vorzugsweise wenigstens die zuletzt zwei vernetzten Blöcke, besonders bevorzugt die zuletzt acht vernetzten Blöcke (14d), gespei- chert und zur Validitätsprüfung der Blockchain (14b) verwendet werden, ohne die gesamte Blockchainhistorie zu überprüfen und zu berechnen, so dass die Re- chengeschwindigkeit und der Energieverbrauch verbessert wird , wobei die vorangegangene Blockchainhistorie separat gespeichert wird und/oder nn) zur Verwendung eines Blockchainverfahrens (14), wobei die Blockchain (14b) und/oder ein Block in der IT -Infrastruktur (11) und/oder IT -Cloudstruktur (13) und/oder Computercloud (13a) als Replik bei jedem Nutzer gespeichert ist und jeder Nutzer den Zugriff auf seine getätigten Transaktionen und/oder seine Blockchainhistorie hat, vorzugsweise in einem Peer to Peer Netz und/oder oo) zur Erzeugung eines computergestützten zentralen und/oder dezentralen Steue- rungsprinzipes und /oder mit einer Steuerungsfunktion (lb), insbesondere zur digitalen Vernetzung und/oder Verknüpfung und/oder Kommunikation, insbe- sondere zur zumindest teilweise automatisiert und/oder autonom abfolgenden Steuerung (lb), insbesondere Fernsteuerung (lb) und/oder Selbststeuerung (lb) und/oder Ansteuerung (lb) und/oder Regelung und/oder Kontrolle (lb)von Pro- zessen und/oder Vorrichtungen und/oder Vorrichtungssystemen, insbesondere als alternative N2X- (Network to Everything) und/oder N2M - (Network to Machine) und/oder N2V- (Network to Vehicle) und/oder N2I- ( Network to Inf- rastructure) und/oder N2R- (Network to Road) und/oder N2P- (Network to pe- destrian) und/oder N2H- (Network to Home) Steuerung und/oder - Kommunikation und/oder pp) zur computergestützten Erzeugung und/oder Erfassung und/oder Übertragung von Informationen und/oder Daten und/oder Echtzeitdaten, vorzugsweise Raum- und/oder Zeit- und/oder Messdaten und/oder Telemetriedaten, insbesondere von Fahrzeugen und/oder Robotern und/oder Maschinen und/oder Anzeige- und/oder Sensor-, Scan-, Kamera-, und/oder Signalvorrichtungen und/oder opti- schen und/oder akustischen Vorrichtungs- und/oder Einrichtungs- , insbesonde- re Fahrwegelementen und/oder qq) zur computergestützten, zumindest teilweise automatisiert und/oder autonom ab- folgenden, alternativen N2X und/oder N2V Verkehrssteuerung (8) und/oder - regelung (8) und/oder -lenkung (8) und/oder -telematik, insbesondere als Alter- native zu den Risiken und Gefahren des autonomen Fahrens und einer V2X (Vehicle to everything) und oder C-V2X (Cellular Vehicle to everything) Steuerung nach dem derzeitigen Stand der Technik, vorzugsweise mit Aus- schluss starker KI, insbesondere von Deep Leaming Systemen und/oder Deep Leaming Algorithmen und/oder rr) zur Verbesserung und/oder Gewährleistung einer funktionstüchtigen und wirt- schaftlichen autonomen Verkehrssteuerung als Alternative zum derzeitigen Stand der Technik des autonomen Fahrens und/oder ss) zur Verbesserung der Effizienz, insbesondere der Energie-, Umwelt- und/oder Struktureffizienz, von öffentlichen Verkehrssystemen, insbesondere des öffent- lichen Nahverkehrs und/oder des Schienenverkehrs und/oder zur Verkehrsentla- stung von Städten und/oder zur Verkehrslenkung (8) und/oder-steuerung (8) des Individualverkehrs und/oder tt) zur Vermeidung der Nachteile der Cyber- und Datensicherheit von intemet- basierten V2X und/oder C-V2X und/oder M2M (Machine to Machine), ins besondere von IoT (Internet of Things) basierten Steuerungssystemen und/oder IoT Anwendungen und/oder uu) insbesondere zur Vermeidung und zum Ausschluss der Nachteile und Risiken von künstlicher Intelligenz (KI), insbesondere starker KI, insbesondere von Deep Leaming Systemen und/oder Deep Leaming Algorithmen, insbesondere zur Vermeidung der Ethik-, Diskriminierungs-, Datenmissbrauchs-, Rechts- Haftung-, Fehleiresultats -, Funktionstüchtigkeits-, Folgekosten- und/oder der Energieverbrauchsproblematik, insbesondere des Risikos der mangelnden Kon- trollierbarkeit, Beherrschbarkeit und/oder der unkalkulierbaren Folgen von KI- Systemen für den Menschen und/oder w) zur Erzeugung eines privaten und/oder autarken digitalen Netzes (12) weist das elektronische Element (E) und/oder die IT-Infirastruktur (11) und/oder das digi- tale Netz (12) eine eigene, autarke Software (26), insbesondere mit einem eige- nen privaten und/oder autarken Betriebssystem auf und/oder ww) zur Erzeugung eines privaten und/oder autarken digitalen Netzes (12) weist das elektronische Element (E) und/oder die IT-Infrastruktur (11) und/oder das digitale Netz (12) eine Schnittstelle zum Datenaustausch mit öffentlichen digi- talen Netzen auf, insbesondere dem Internet (WWW), insbesondere zur Portie- rung und Konvertierung von Datenimporten und/oder -exporten des privaten und/oder autarken Betriebssystems und/oder Software und/oder App Anwen- dungen und/oder xx) zur Erzeugung eines privaten und/oder autarken digitalen Netzes (12) weist das elektronische Element (E) und/oder die IT-Infrastruktur (11) und/oder das digi- tale Netz (12) eine Firewall zur Abwehr von schädlichen Daten, insbesondere Computerviren, von öffentlichen digitalen Netzen, insbesondere dem Internet ( WWW) auf vorgesehen ist und/oder wenigstens eine der vorgenannten (Anspruch 2.a)-ww)) techni- schen Funktionen und/oder Merkmale enthält.

3. Verwendung nach Anspruch 1 oder 2, wobei dass das elektronisches Element (E) und/oder die Originalkennung und/oder das Originalkennungselement in den nachfol- genden Elementen und/oder Modulen enthalten und/oder damit verbindbar ist insbe- sondere zur Verbesserung und/oder Gewährleistung der nachfolgenden technischen Funktionen des Elementes (le) und/oder des Hardwarelementes (27) und/oder der Software (26) und/oder der APP Anwendung (26) und/oder der Identifikations- (lc) und/oder Authentifizierungsfunktion (lc) und/oder der Steuerungs-(lb) und/oder der Regelungs-(lb) und/oder der Mess-und/oder der Sensorfunktion (18) und/oder des digi- talen Netzes (12) und/oder des Rechnemetzes und/oder der GG- Infrastruktur (11) und/oder der drahtlose Verbindung (ln) und/oder des Funknetzes (lo) und/oder der Computercloud (13a) und/oder des verschlüsselten Buchfuhrungssystems (14) und/oder des verschlüsselten Verfahrens (14e) und/oder des Blockchainverfahrens (14a) und/oder des Rechner-und/oder Computerelementes (6) und/oder des Vorrichtungs- und/oder Bauteilelementes (2a) und/oder des Fahrzeug- (10) und/oder des Roboter- (9) und/oder des Fortbewegungsmittel- (10), und/oder des Elektrogeräte- (2b) und/oder des Mobilte- lefon- (2b) und/oder des Smartphone- (2b) und/oder Mess- (2b) und/oder Datenerfas- sungseinrichtungs-(2b) und/oder Datenverarbeitungseinrichtungs- (2b) und/oder des Nutzanwendungs- (7a) und/oder des Anzeigeelementes (2) imd/oder des Hardwaremo- duls (27a), vorzugsweise des Funk-(23) und/oder Sender- (23) und/oder Empfanger- (23) und/oder Antennen- und/oder Frequenz-(23) und/oder Ortungs- (23) und/oder An- zeige-(15) und/oder Touchscreen-(15) und/oder Tastatur-(15) und/oder Kamera- (15) und/oder Videokamera- (16) und/oder Wärmebildkamera- (20) und/oder Scanner- (17) und/oder Infrarotlicht- (19) und/oder Lautsprecher- (21) und/oder Mikrofon- (22) und/oder Lidar-/Ladar- (24) und/oder Ultraschallsensor-(24) und/oder Aktoren-(24) und/oder Laser-(24) und/oder Radar-(24) und/oder Konnektivitäts-(24) und/oder Tele- metrie-^) und/oder Telematik-(24) und/oder Steuerungs- (lb) und/oder Regelungs- (lb) und/oder Mess- (lb) und/oder Datenerfassungseinrichtungs-(öb) und/oder Daten- verarbeitungseinrichtungs- (6b) und/oder Sensormoduls (18), wobei wenigstens eine der nachfolgenden technischen Funktionen und/oder Merkmale a) wenigstens ein Hardwaremodul (27a), vorzugsweise Funk-(23) und/oder Sen- der- (23) und/oder Empfänger- (23) und/oder Antennen- (23) und/oder Fre- quenz- (23) und/oder Ortungs- (23) und/oder Anzeige- (15) und/oder Touch- screen- (15) und/oder Tastatur- (15) und/oder Kamera- (15) und/oder Videoka- mera- (16) und/oder Wärmebildkamera- (20) und/oder Scanner- (17) und/oder Infrarotlicht- (19) und/oder Lautsprecher- (21) und/oder Mikrofon- (22) und/oder Lidar-/Ladar- (24) und/oder Ultraschallsensor- (24) und/oder Aktoren- (24) und/oder Laser- (24) und/oder Radar- (24) und/oder Konnektivitäts- (24) und/oder Telemetrie- (24) und/oder Telematik- (24) und/oder Steuerungs- (6b) und/oder Regelungs- (6b) und/oder Mess-(6b) und/oder Datenerfassungseinrich- tungs- (6b) und/oder Datenverarbeitungseinrichtungs- (6b) und/oder Sensormo- dul (18) ist zur quantitativen und/oder qualitativen digitalen Erfassung und/oder Erzeugung der digitalen Daten der Originalkennung und/oder des Originalken- nungselementes vorgesehen und/oder ausgebildet, insbesondere wobei das elek- tronische Element (E) und/oder die Originalkennung wenigstens eine einmalige Originalkennung für einen Nutzer (7) und/oder für eine Nutzanwendung (7a) und/oder für eine Entität (7a) enthält, vorzugsweise wobei das Hardwareelement (27) die Originalkennung und/oder gespeicherte digitale Daten der Originalken- nung enthält und/oder erzeugt und/oder verarbeitet und/oder insbesondere wobei die Originalkennung wenigstens das physische Originalkennungselement auf- weist und/oder das physisches Originalkennungselement zur Erzeugung der di- gitalen Daten verwendet wird, vorzugsweise wobei die Originalkennung aus dem physischen Originalkennungselement mittels eines spezifischen und/oder biometrischen Bildscans erzeugt wird und/oder als ein physisches Originalken- nungselement enthalten ist, vorzugsweise wobei die digitalen Daten durch die quantitative und/oder qualitative digitale Erfassung, vorzugsweise durch Mes- sung von in dem Originalkennungselement enthaltenen Informationen und/oder Eigenschaften, insbesondere zur Authentifizierung des Nutzers (7) und/oder der Nutzanwendung (7a) und/oder der Entität (7a), erzeugt werden und/oder b) das elektronische Element (E) und/oder die Originalkennung und/oder das Ori- ginalkennungselement und/oder das Hardwareelement (27) weist vorzugsweise ein Format von 85,6 mm x 54 mm aufweist, insbesondere ein Format 25 mm x 15 mm und/oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm auf und/oder c) das elektronische Element (E) und/oder die Originalkennung und/oder das Ori- ginalkennungselement und/oder das Hardwareelement (27) weist, vorzugsweise eine Dicke von maximal 2 mm auf, vorzugsweise eine Dicke von mindestens 0,3 bis 1 mm ( Millimerter), insbesondere 0,76 mm und/oder 0,67 mm, bevor- zugt eine Dicke von lnm (Nanometer) bis 0,3mm, besonders bevorzugt eine Dicke von lnm bis lOOnm ( Nanometer) und/oder d) das elektronische Element (E) und/oder das Hardwareelement (27) weist vor- zugsweise eine Speicherkapazität von 1MB (Megabyte) bis 128GB (Gigabyte) RAM und/oderROM vorzugsweise mindestens 128GB (Gigabyte) RAM und/oderROM auf und/oder e) das elektronische Element (E) und/oder das Hardwareelement (27) und/oder das Konnektivitätsmodul (24) weist wenigstens eine digitale Schnittstellen- (s) und/oder Verbindungsfunktion (s) auf, vorzugsweise vorgesehen und ausgebil- det als USB Anschluss, insbesondere als USB Typ C, vorzugsweise mit Lade-, und/oder OTG- und/oder Tethering- und/oder DisplayPort- und/oder Audio- und/oder Energieversorgungselement (lh) und/oder f) das Energieversorgungselement (lh) des elektronischen Elementes (E) und/oder des Hardwareelementes (27) weist insbesondere ein Stromversorgungselement (lh) auf, das vorzugsweise zur drahtlosen und/oder kabelgebunden Energieüber- tragung auf technischer Basis einer Verbindung mit dem Stromnetz und/oder des Akkumulators (lh) und/oder des Batterieelementes (lh) und/oder mittels In- duktions- und/oder Funkstroms und/oder durch Ultraschallübertragung ausge- bildet und/oder vorgesehen ist, vorzugsweise wobei die Ultraschallübertragung mit piezotechnikbasierten Sensoren erzeugt, vorzugsweise wobei die elektroma- gnetische Induktion, insbesondere mittels QI Funktion und/oder vorzugsweise wobei das Energieversorgungselement (lh) als ein photovoltaisches Element ausgebildet ist und/oder g) der Akkumulator (lh) und/oder das Batterieelement (lh) des elektronischen Elementes und/oder des Hardwareelementes (27) und /oder die Originalkennung und/oder das Originalkennungselement weist eine Dicke von vorzugsweise lnm (Nanometer) bis 500 mm, vorzugsweise von 20 mm bis 1000 mm (Mikrometer), insbesondere von 20 bis 100 mm (Mikrometer), insbesondere von 0,3 bis 4,5 mm ( Millimeter) auf und/oder h) insbesondere das elektronische Element (E) und/oder das Hardwareelement (27) und/oder das Funk-(23) und/oder das Frequenz- (23) und/oder das Sender-(23) und/oder das Empfänger- (23) und/oder das Antennenmodul (23) weisen we- nigstens eine Vorrichtung, vorzugsweise einen Frequenzmodulator, zur va- riablen Frequenzwahl und/oder Einstellung, insbesondere der Funkffequenz, für ein gewähltes draht- und/oder kabeloses signalgebendes Übertragungsverfahren auf, insbesondere im für den Frequenzbereich von 1Hz bis 1000 GHz, insbeson- dere für das terrestrische - und/oder satellitenbasierte Funkwellennetz und/oder i) der Frequenzmodulator arbeitet vorzugsweise auf der Basis der Phasenregel- schleifen Technologie ( PPL), wobei der Frequenzmodulator vorzugsweise we- nigstens eine stufenlos einstellbare Frequenzbandbreite von 1Hz bis 1000 GHz vorzugsweise 100 MHz bis 6 GHz aufweist, besonders bevorzugt vom 10 Khz bis 80 GHz und/oder j) der Frequenzmodulator arbeitet vorzugsweise auf technischer Basis eines 2,4 GHz ISM- Band Systems, insbesondere wobei das Empfangermodul als Di- rektmischempfanger- und/oder als PPM- und/oder PCM System und/oder als Superheterodyn-Empfänger (Super), vorzugsweise mit doppelter Frequezumset- zung (Doppelsuper) ausgebildet und/oder vorgesehen ist und/oder k) der Frequenzmodulator erkennt und/oder stellt automatisch die Frequenzband- breite einer drahtlosen Verbindung und/oder drahtlosen Signalübertragung (ln) ein und/oder l) insbesondere das elektronische Element (E) und/oder das Hardwareelement (27) und/oder die Originalkennung und/oder das Originalkennungselement und/oder das Ortungs- (23) und/oder das Funk- (23) und/oder das Frequenz- (23) und/oder das Sender- (23) und/oder das Empfänger- (23) und/oder das Anten- nenmodul (23) weist wenigstens eine Vorrichtung und/oder Einrichtung zur Or- tung und/oder Ortsbestimmung auf und/oder ist digital damit verbunden und/oder verbindbar, vorzugsweise mit mit Timer- und/oder Notruf-Funktion und/oder mit dem globalen Navigations- und/oder Satellitennavigations- (GNNS), vorzugsweise GPS- und/oder AGPS- und/oder Glonass- und/oder Beidou- und/oder Galileo- und/oder QZSS-System und/oder weist einen, insbe- sondere elektronischen, Kompass und/oder vorzugsweise ein Magnetometer- und/oder Fluxgate-Magnetometer- und/oder Näherungs- und/oder Schwerkraft- und/oder Hall- (nach Edwin Hall) und/oder Beschleunigungs- und/oder Barome- terhöhen- und/oder Gyroskopf und/oder Hygrometer- und/oder Barometer- und/oder Thermometerelement auf und/oder m) insbesondere das elektronische Element (E) und/oder die Originalkennung und/oder das Originalkennungselement und/oder das Hardwareelement (27) und/oder das Sensor- (18) und/oder Messmodul (6b) weisen wenigstens einen Sensor und/oder Sensorelement und/oder Messelement auf, wobei die Sensor- funktion insbesondere physikalische, chemische und stoffliche Eigenschaften quantitativ oder qualitativ, vorzugsweise mit Messfunktion für Temperatur, Wärmemenge, Feuchtigkeit, Druck, Gewicht, Abstandsmessung, Regensensor, Schall, Helligkeit, Beschleunigung, PH- Wert, Ionenstärke, elektrische - Spannung, -Strom, -Widerstand, elektrochemisches Potential und/oder Puls- und/oder Herzfrequenz- und/oder Blutdruck- und/oder Blutanalyse und/oder n) wenigstens zwei elektronische Elemente (E) sind zur digitalen Kommunikation (8a) und/oder zum Datenaustausch (8b) und/oder zum Datenstreaming (8b) vorzugsweise durch eine drahtlose Verbindung (ln) und/oder ein physische Verbindung, insbesondere durch ein kabel- und/oder kontaktbasiertes- und/oder ein draht- und/oder kabeloses signalgebendes Übertragungsverfahren miteinan- der verbunden und/oder verbindbar und/oder o) das elektronische Element (1) weist eine Konnektivitätsfunktion (35) und/oder ein Konnektivitätsmodul (24) für eine Internet of Things (IoT) - Anwendung (lm) auf, vorzugsweise wobei das Hardwareelement (27) und/oder die Software (26) wenigstens eine Schnittstellenfunktion für eine nicht kompatibles Soft- waresystem, insbesondere Betriebssytem enthält und/oder p) das elektronische Element (E) und/oder das Hardware-Element (27) und/oder die Originalkennung und/oder das Originalkennungselement ist einteilig und/oder mehrteilig ausgebildet, wobei ein mehrteiliges Hardwareelement (27) einzelne miteinander verbundene Hardwaremodule (27a) aufweist, wobei die Verbindung der einzelnen Hardwaremodule (27a) drahtlos und/oder physisch vorgesehen ist, vorzugsweise kabel- und/oder kontakt- und/oder funkbasiert ausgebildet ist und/oder q) das elektronische Element (1) und/oder Hardwareelement (27) und/oder das Hardwaremodul (27a) und/oder die Originalkennung und/oder das Originalken- nungselement und/oder die Chipkarte (27c) und/oder die Speicherkarte (27c) und/oder der Chip (27c) und/oder das Chipelement (27a) weist vorzugsweise ei- ne Temperaturbeständigkeit von -80° Grad Celsius bis 250°Grad Celsius, be- vorzugt von - 40° Celsius bis 150° Celsius auf und/oder r) das elektronische Element (1) und/oder das Hardwareelement (27) und/oder das Hardwaremodul (27a) und/oder die Originalkennung und/oder das Originalken- nungselement und/oder die Chipkarte (27c) und/oder die Speicherkarte (27c) und/oder der Chip (27c) und/oder das Chipelement (27a) weist vorzugsweise ei- ne hermetische Versiegelung zum Schutz gegen Schocks und/oder Stösse und/oder Korrosion und/oder Feuchtigkeit und/oder gegen schädliche Umwelt- einflüsse auf und/oder s) der Chip und/oder das Chipelement (27c) ist vorzugsweise durch Verschweißen auf einer Leiterplatte und/oder Platine vorgesehen und/oder ausgebildet und/oder t) das elektronische Element (E) und/oder das Hardware-Element (27) und/oder das Hardwaremodul (27a) enthält wenigstens einen, insbesondere datengesicher- ten und/oder datengeschützten und/oder physisch separierten Hardwarebereich und/oder Hardwareteil, vorzugsweise mit wenigstens einer elektronische Schal- tung, vorzugsweise mit wenigstens einem integrierten Schaltkreis (IC, Inte- grated circuit), vorzugsweise auf wenigstens der Chipkarte (27c) und/oder der Speicherkarte (27c) und/oder dem Chip (27c) und/oder dem Chipelement (27c) enthalten und/oder u) eine Mehrzahl von elektronische Schaltungen und/oder integrierten Schaltkrei- sen und/oder Chips (27c) und/oder Chipelementen (27c) ist digital verknüpfbar ausgebildet und/oder v) das Hardware-Element (27) und/oder das Hardwaremodul (27a) weist wenig- stens einen Chip (27a) und/oder Chipelement (27a) auf, vorzugsweise physisch austauschbar und/oder eingebettet (embedded), vorzugsweise aufgeschweisst ausgebildet und/oder w) ein Chip (27c) und/oder Chipelement (27c) ist, insbesondere als wenigstens ein Plättchen ausgebildet, vorzugsweise aus Halbleiter-Material, vorzugsweise wobei das Plättchen wenigstens ein elektronisches Halbleiterbauelement und/oder eine Mehrzahl miteinander elektrisch verbundene elektronische Halb- leiterbauelemente aufweist, insbesondere einen Transistor und/oder eine Diode und/oder ein aktives und/oder ein passives Bauelement und/oder x) der Chip (27c) und/oder das Chipelement (27c) und/oder das Plättchen ist zum Schutz und zur einfacheren elektrischen Kontaktierung in einem vorzugsweise mehrfach größeren Chipgehäuse enthalten, vorzugsweise in dem Chipgehäuse eingekapselt und/oder y) die elektronische Schaltung und/oder der integrierte Schaltkreis und/oder der Chip (27c) und/oder das Chipelement (27c) und/oder das Plättchen enthält we- nigstens eine Ein-/Ausgabe Einheit (I/O Unit, Input /Output) und/oder eine CPU (Central Processing Unit) und/oder einen ROM (Read only Memory) nur Lese- zugrifF Festwertspeicher und/oder einen RAM (Random AccessMemory) Ar- beitsspeicher und/oder einen EEPROM oder E2PPROM (Electrically erasable programmable read only memory) elektrisch löschbaren, programmierbareren nur Lesespeicher und/oder z) die auswechselbare physische Chipkarte (27c) und/oder die eingebaute physisch nicht auswechselbare Chipkarte (27c) und/oder das chipkartenidentische Funk- tion aufweisende Element (27c) enthält insbesondere eine Mehrzahl von elek- tronischen Schaltungen und/oder integrierten Schaltkreisen und/oder Chips (27c) und/oder Chipelementen (27c) und/oder Plättchen, vorzugsweise elek- trisch miteinander verbunden oder verbindbar ausgebildet sind, wobei die elek- trische Verbindung vorzugsweise durch wenigstens einen Schalter und/oder Schaltereinrichtung und/oder Schaltervorrichtung elektrisch und/oder mecha- nisch und/oder manuell steuerbar und/oder schaltbar ausgebildet ist, vorzugs- weise zur Herstellung und/oder Trennung einer elektrisch leitenden Verbindung und/oder aa) der Schalter und/oder die Schaltereinrichtung und/oder die Schaltervorrichtung steuert vorzugsweise die Ein-/ Ausgabe Einheit und/oder die CPU und/oder den ROM nur Lesezugriff Festwertspeicher und/oder den RAM Arbeitsspeicher und/oder den EEPROM oder E2PPROM elektrisch löschbareren programmier- bareren nur Lesespeicher und/oder ist damit verbunden und/oder verbindbar und/oder bb) die auswechselbare physische Chipkarte (27c) und/oder die eingebaute physisch nicht auswechselbare Chipkarte (27c) und/oder das chipkartenidentische Funk- tion aufweisende Element (27c) enthält vorzugsweise das Energieversorgungs- element (lh), vorzugsweise das Stromversorgungselement (lh), vorzugsweise den Akkumulator (h) und/oder das Batterieelement zur Stromversorgung we- nigstens eines Chips (27c) und/oder Chipelementes (27c) und/oder cc) der Schalter und/oder die Schaltereinrichtung und/oder die Schaltervorrichtung ist vorzugsweise auf Basis eines elektronischen Schalters ausgebildet, vorzugs- weise als Analogschalter oder Halbleiterschalter mit Funktion eines elektrome- chanischen Schalters, insbesondere mit Feldeffekttransistoren (FET) und/oder Bipolartransistoren und/oder Dioden als Schaltelemente und/oder ist als Digi- taltransistor und/oder Thyristor und/oder Halbleiterrelais ausgebildet und/oder dd) die elektronische Schaltung und/oder der integrierte Schaltkreis und/oder der Chip (27c) und/oder das Chipelement (27c) und/oder das Plättchen ist als Modul (25a) ausgebildet, vorzugsweise wobei ein Modul nur eine spezifische Funktion zur Erfüllung einer spezifischen Aufgabe aufweist und/oder ee) die elektronische Schaltung und/oder der integrierte Schaltkreis und/oder der Chip (27c) und/oder das Chipelement (27c) und/oder das Plättchen und/oder das Modul (25a) ist insbesondere als Laufwerk ansteuerbar und/oder anzeigbar und/oder ausgebildet und/oder einem Laufwerk zugeordnet und/oder ff) mittels des Schalters und/oder der Schaltereinrichtung und/oder der Schaltervor- richtung wird ein Modul (25a) zur Erfüllung und Erledigung der spezifischen Aufgabe, vorzugsweise zeitweise, insbesondere zur Gewährleistung der Cyber- und/oder Datensicherheit, physisch vom digitalen Netz (12) und/oder der IT- Infrastruktur (11) getrennt und arbeitet insbesondere im Offline Betrieb und/oder gg) mittels des Schalters und/oder der Schaltereinrichtung und/oder der Schaltervor- richtung wird ein definierter, vorzugsweiser automatisierter, Datenaustausch zwischen einer Mehrzahl von Modulen (25a), gesteuert und/oder geregelt und/oder hh) die auswechselbare physische Chipkarte (27c) und/oder die eingebaute physisch nicht auswechselbare Chipkarte (27c) und/oder das chipkartenidentische Funk- tion aufweisende Element (27c) enthält insbesondere eine Mehrzahl von Modu- len (25a) und/oder elektronischen Schaltungen und/oder integrierten Schaltkrei- sen und/oder Chips (27c) und/oder Chipelementen (27c) und/oder Plättchen, die insbesondere nicht elektrisch und/oder physisch miteinander verbunden sind, wobei die elektrische Verbindung vorzugsweise durch das Datenerfassungsein- richtungsmodul (6b), vorzugsweise durch ein Chipkarten- und/oder Chip- und oder Chipelement- und/oder Speicherkartenlesegerät vorgesehen ist, wobei das Datenerfassungseinrichtungsmodul (6b) vorugsweise wenigstens einen zweiten Schalter und/oder eine zweite Schaltereinrichtung und/oder eine zweite Schal- tervorrichtung aufweist zur Herstellung und/oder Trennung der elektrischen Verbindung zwischen wenigstens zwei Modulen (25a) und/oder ii) die Herstellung der elektrischen Verbindung zwischen dem Datenerfassungsein- richtungsmodul (6b) und dem Modul (25a) ist vorzugsweise physisch, durch elektrische Kontaktelemente der Chips (27c) und/oder der Chipelemente (27c) und/oder der Plättchen und/oder elektrische Kontaktelemente des Datenerfas- sungseinrichtungsmoduls und/oder drahtlos, vorzugsweise über eine Funkver- bindung, insbesondere NFC und/oder RFID Verbindung vorgesehen und/oder jj) vorzugsweise wenigstens ein Modul (25a), enthält vorzugsweise wenigstens ei- ne Software (26) und/oder APP Anwendung (26), insbesondere für die Identifi- kations- (lc) und/oder Authentifizierungsfunktion (lc) mittels des computerge- stützten, zumindest teilweise automatisiert und/oder autonom abfolgenden, ver- schlüsselten Verfahrens (14e) mit wenigstens einem Verschlüsselungscode (28) und/oder einem ID - Code ( Identity) (28c) und/oder kk) vorzugsweise wenigstens ein Modul (25a), enthält wenigstens eine Software und/oder APP Anwendung, insbesondere für die computergestützte, zumindest teilweise automatisiert und/oder autonom abfolgenden Steuerungs- (lb) und/oder Regelungs-(lb) und/oder Mess- (lb) und/oder Sensorfunktion (lb), insbesondere zur Verkehrssteuerung (8) und/oder -regelung (8) und/oder - lenkung (8) und/oder- telematik (8) und/oder 11) vorzugsweise wenigstens ein Modul (25a), enthält wenigstens eine Software(26) und/oder APP Anwendung(26) insbesondere für das Blockchainverfahren (14a) und/oder für die persönliche digitale Kommunikation und/oder die persönlichen Daten des Nutzers (7) und/oder mm) der Schalter und/oder die Schalteinrichtung ist vorzugsweise auf dem Chip (27c) und/oder dem Chipelement (27) und/oder dem Plättchen und/oder auf der Chipkarte (27) und/oder dem Modul (25a) enthalten und/oder physisch und/oder drahtlos mit dem Schalter und/oder der Schalteinrichtung verbunden und/oder nn)das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenverarbeitungs- einrichtungsmodul (6b) ist vorzugsweise in dem Elektrogeräte- (2b) und/oder Mobiltelefon- (2b) und/oder dem Smartphone- (2b) und/oder Satellitentelefon- (2b) und/oder dem Mess- (2b) und/oder dem Datenerfassungseinrichtungs- (2b) und/oder dem Datenverarbeitungseinrichtungselement (2b) enthalten und/oder physisch und/oder drahtlos damit verbunden und/oder verbindbar und/oder digi- tal damit verknüpft und/oder digital verknüpfbar ausgebildet und/oder

oo)das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) enthält wenigstens ein Einrichtungs- und/oder Vorrich- tungs- und/oder -Adapterelement, vorzugsweise einen Steckplatz, zur physi- schen und/oder drahtlosen und/oder elektrischen Verbindung mit dem Chip (27c) und/oder dem Chipelement (27c) und/oder dem Plättchen und/oder der Chipkarte (27c) und/oder der Speicherkarte (27c) und/oder pp) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) ist vorzugsweise als Chip- und/oder Chipelement- und/oder Chipkarten- und/oder Speicherkartenlesegerät, vorzugsweise als Mehr- fachlesegerät (Multicardeader), insbesondere als EC Cash- Terminal Lesegerät, ausgebildet, vorzugsweise für alle handelsüblichen Chip - und/oder Speicherkar- tentypen und/oder Speicherkartenabmessungen, insbesondere für alle Formate, die zwischen 1 nm x ln bis 500 x 500 mm liegen und/oder qq)das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) stellt ein elektrische Verbindung zwischen den einzelnen Modulen (25a) und/oder den Chips (27c) und/oder den Chipelementen (27c) und/oder den Plättchen her, vorzugsweise drahtlos und oder durch elektrische Kontaktelemente und/oder rr) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) ist zur Steuerung und/oder Regelung des Laufwerkes des Moduls (25a) und/oder des Chips (27c) und/oder der Chipelementes (27c) und/oder des Plättchens ausgebildet und/oder ss) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) enthält wenigstens einen zweiten Schalter und/oder eine zweite Schalteinrichtung, vorzugsweise wobei die Schalteinrichtung manuell bedienbar ist, vorzugsweise wobei das Modul (25a) und/oder das Laufwerk ma- nuell ein- und/oder auschaltbar ausgebildet ist und/oder tt) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) weist wenigstens ein Anzeigeelement (2) und/oder ein Anzeigemodul (15) auf, vorzugsweise ein Touchsreenmodul (15) und/oder ein Leuchtdiodenelement und/oder uu) das Anzeigeelement (2) und/oder das Anzeigemodul (15) zeigt an, ob das Mo- dul (25a) und/oder Laufwerk ein- und/oder ausgeschaltet und/oder im Arbeits- betrieb ist und/oder w) vorzugsweise wenigstens ein Modul (25a) weist eine automatisierte, vorzugs- weise steuerbare und/oder femsteuerbare, eingebaute Ausschaltfunktion und/oder Kurzschlussfunktion, vorzugsweise zur Abschaltung und/oder Zerstö- rung des Chips und/oder Chipelementes auf, vorzugsweise indem wenigstens eine kurzschlusserzeugendes steuerbares Kontaktelement vorgesehen ist, zum Schutz vor Manipulationen und/oder als Notabschaltung und/oder ww) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) und/oder die Chipkarte (27c) und/oder der Chip (27c) und/oder das Chipelement (27) und/oder die Speicherkarte (27c) enthält eine eingebaute Ausschaltfunktion, vorzugsweise als Lock-Funktion und/oder Lock- Element, vorzugsweise als SIM Lock und/oder NFC Lock Funktion und/oder -Element ausgebildet und/oder xx) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) schaltet sich vorzugsweise nur bei Erkennung eines auto- risierten Zugriffs ein, vorzugsweise bei Erkennung eines autorisierten Moduls (25a) und oder Chips (27c) und/oder Chipelementes (27c) und/oder Chips (27c) und/oder Speicherkarte (27c) und/oder ist vorzugsweise nicht manuell ein- schaltbar ausgebildet und/oder yy) das Datenerfassungseinrichtungsmodul (6b) und/oder das Datenerfassungsein- richtungselement (2b) enthält vorzugsweise einen amtlichen Registrierungscode, wobei der Registrierungscode mit dem Modul (25a) und oder Chip (27c) und/oder Chipelement(27c) und/oder Chip (27c) und/oder Speicherkarte (27c) vorzugsweise digital verküpft wird und/oder digital verknüpfbar ist, vorzugs- weise zur Erkennung einer Zugriffsberechtigung eines Nutzers (7) und/oder zz) das elektronische Element (E) und/oder das Hardwareelement (27) und/oder die Software(26) und/oder APP-Anwendung(26) und/oder die IT- Infrastruktur (11) und/oder die Computercloud (13a) und/oder das Rechnemetz und/oder das digi- tale Netz (12) und/oder ein öffentliches digitales Netz, vorzugsweise das Inter- net, insbesondere das World Wide Web, weist wenigstens das verschlüsselte Verfahren (14e) und/oder das verschlüsselte Buchfuhrungssystem (14), insbe- sondere das Blockchainverfahren (14a) auf, wobei das verschlüsselte Verfahren (14e) wenigstens die nachfolgenden zumindest teilweise automatisiert und/oder autonom abfolgenden Schritte in beliebiger Reihenfolge und/oder eine der nach- folgenden technischen Funktionen und/oder Merkmale enthält: aaa) die digitalen Daten der Originalkennung werden durch die quantitative und/oder qualitative digitale Erfassung, vorzugsweise durch Messung von in dem Originalkennungselement enthaltenen Informationen und/oder Eigenschaf- ten, vorzugsweise der chemischen und/oder physikalischen und/oder stofflichen Eigenschaften, vorzugsweise durch Messung und/oder Analyse optischer Para- meter, vorzugsweise von Gradationskurven- und/oder Spreizungs- und/oder Höhenprofil-, und/oder Filterwerten, vorzugsweise für die Parameter: Farbe, Ton, Sättigung, Balance, Kontrast, Helligkeit, RGB- Merkmale und/oder Ober- flächenstruktur, vorzugsweise mittels IMU- (Inertial Measurement Unit) und/oder fotoelektrischer- und/oder Farbtemperatur- und/oder Farbwert- und/oder automatische Texterkennungsfunktion in Bildern (Optical Character Recognition, OCR) und/oder Eye-trackererkennung und/oder mittels Signaler- fassung, vorzugsweise optischer und/oder akustischer Signale oder -Impulse, und/oder mittels Temperaturmessung und/oder Messung stofflicher und/oder materieller und/oder olfaktorischer und/oder haptischer und/oder taktiler und/oder sensorischer und/oder gustatorischer Eigenschaften, erzeugt, vorzugs- weise wobei die Originalkennung aus dem, vorzugsweise physischen, Original- kennungselement mittels eines spezifischen und/oder biometrischen Bildscans erzeugt wird und/oder als ein Originalkennungselement enthalten ist und/oder bbb) die Messung der enthaltenen Informationen und/oder Eigenschaften erfolgt vorzugsweise nur an definierten, dafür vorgesehen Messpunkten und/oder Mess- feldem und/oder Messräumen und/oder Messzeitpunkten ccc) eine Originalkennung und/oder Originalkennungselement weist vorzugsweise wenigstens einen definierten Messpunkt und/oder ein Messfeld und/oder einen Messraum und/oder einen Messzeitpunkt, vorzugsweise eine Mehrzahl von Messpunkten und/oder Messfeldem und/oder Messräumen und/oder Messzeit- punkten, auf und/oder ddd) ein Messpunkt und/oder ein Messfeld weist vorzugsweise wenigstens eine Grösse von lnm x lnm (Nanometer), ein Messraum eine Größe von wenigstens lnm x lnm x lnm (Kubiknanometer) auf, ein Messzeitpunkt wenigstens ein Grösse von einer Picosekunde (ps) auf und/oder eee) der Verschlüsselungscode besteht vorzugsweise aus mindestens acht Zeichen, basierend auf einem Zeichenraum von mindestens 342 Zeichen, so dass die An- zahl der Rechenkombinationen unendlich gross ist (8L342 = Infinity), so dass der Verschlüsselungscode mathematisch nicht entschlüsselbar ist, so dass die Rechenzeit für die Entschlüsselung des Verschlüsselungscodes bei einem Brüte Force Angriff mathematisch unendlich groß ist und/oder fff) die Anzahl der Messpunkte und/oder der Messfelder und/oder der Messräume und/oder der Messzeitpunkte der Originalkennung und/oder des Originalken- nungselement liegt vorzugsweise bei wenigstens bei acht, wobei die Gesamt- zahl der der Messpunkte und/oder der Messfelder und/oder der Messräume und/oder der Messzeitpunkte der Originalkennung und/oder des Originalken- nungselementes vorzugsweise bei 342 liegt und/oder ggg) die Auswahl und/oder Bestimmung eines Messpunktes und/oder eines Mess- feldes und/oder Messraumes und/oder Messzeitpunktes erfolgt vorzugsweise durch einen Zufallsgenerator, der in der Software (26) und/oder APP Anwen- dung enthalten ist, wobei der Zufallsgenerator vorzugsweise acht der vorzugs- weise 342 Messpunkte und/oder der Messfelder und/oder der Messräume und/oder der Messzeitpurikte der Originalkennung und/oder des Originalken- nungselementes auswählt und die digitalen Daten dieser vorzugsweise acht Messpunkte und/oder Messfelder und/oder Messräume und/oder Messzeit- punkte durch die quantitative und/oder qualitative digitale Erfassung erzeugt, wobei mittels des Zufallgenerators für jede Authentifizierung ein neuer Ver- schlüsselungscode (28) erzeugt wird und/oder hhh) vorzugsweise wobei der Verschlüsselungscode (28) wenigstens den einen Schlüssel und/oder das digital verknüpfte Schlüsselpaar aufweist, insbesondere wobei der Schlüssel die Originalkennung und/oder die gespeicherten digitalen Daten der Originalkennung, insbesondere des physischen Originalkennungsele- mentes, vorzugsweise die digitalen Daten des spezifischen und/oder biometri- schen Bildscans enthält, insbesondere wobei ein Iris- und/oder Fingerabdruck- und/oder Gesichtscan zur Authentifizierung und Identifizierung des Nutzers (7) in der IT-Infrastruktur verwendet wird, vorzugsweise wobei der Schlüssel und/oder das Schlüsselpaar wenigstens ein Bild- und/oder Raum- und/oder Raumstrukturelement und/oder Zeichen und/oder Zeichencode, vorzugsweise QR-Code und/oder Signalcode, vorzugsweise Tonsignalcode, enthält und/oder iii) vorzugsweise wenigstens zwei Module (25a) und/oder zwei Chips (27c) und/oder zwei Chipelemente (27c) wenigstens eines, vorzugsweise zweier und/oder einer Merhzahl elektronischer Elemente (E) tauschen, computerge- stützt, zumindest teilweise automatisiert und/oder autonom abfolgend die digita- len Daten des Verschlüsselungscodes (28) und/oder des Schlüssels und/oder Schlüsselpaares und/oder der Originalkennung und/oder des Originalkennungs- elementes untereinander aus und vergleichen diese mit den gespeicherten, abge- legten Daten des Verschlüsselungscodes zur Authentifizierung und/oder Verifi- zierung und zur Autorisierung und/oder Zugriffsberechtigung eines Nutzers (7) und/oder einer Nutzanwendung (7a) und/oder einer Entität (7a), wobei die er- zeugten digitalen Daten, der vorzugsweise acht, mittels Zufalls bestimmten- Messpunkte und/oder Messfelder und/oder Messräume und/oder Messzeitpunk- te vorzugsweise zumindest teilweise automatisiert und/oder autonom abfolgend auf wenigstens ein elektronisches Element (E) und/oder ein Hardwareelement (27) und/oder ein das Datenerfassungseinrichtungsmodul (6b) und/oder das Da- tenverarbeitungseinrichtungsmodul (6b) und/oder das Datenerfassungseinrich- tungselement (2b) und/oder das Datenverarbeitungseinrichtungselement (2b) und/oder an wenigstens ein Modul (25a) und/oder Chip (27c) und/oder Chi- pelement (27c) und/oder auf die IT- Infrastruktur (11) und/oder die Computer- cloud (13a) übertragen und dort mit den abgelegten gespeicherten Daten der Originalkennung und/oder des Originalkennungselementes verglichen werden, vorzugsweise wobei das elektronische Element eine digitale Verknüpfung (lj) mit der IT- Infrastruktur (11) (Information Technology) und/oder Computer- cloud (13a) über das Rechnemetz aufweist, insbesondere wobei das elektroni- sche Element (E) und/oder die die IT Infrastruktur (11) und/oder das digitale Netz (12) wenigstens das verschlüsselte Verfahren (14e) und/oder ein verschlüs- seltes Buchfuhrungssystem (14), insbesondere das Blockchainverfahren (14a), aufweist, insbesondere wobei das digitale Mess- (6b) und/oder Datenerfas- sungseinrichtungs- (6b) und/oder Datenverarbeitungseinrichtungsmodul(6b) zur Erkennung und/oder Erfassung und/oder Verarbeitung der quantitativen und/oder qualitativen Informationen und/oder Eigenschaften, insbesondere zur Erzeugung der digitalen Daten des Originalerkennungselementes vorgesehen ist, vorzugsweise mittels wenigstens eines der Hardwaremodule (27a), vorzugswei- se des Kamera- (15) und/oder des Scanner - (17) und/oder des Sensor (18)- und/oder des Infrarotlichtmoduls (19) und/oder mit einem digitalen Mess- (2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Datenverarbeitungsein- richtungselement (2b) digital verbunden und/oder verbindbar ist und/oder wobei die Software (26) und/oder APP Anwendung (26) die computergestützte An- wendung, insbesondere das Programmmittel zur Bilderkennung (26a), insbe- sondere die Bilderkennungssoftware, vorzugsweise zur Erkennung des biometri- schen und/oder spezifischen Bildscans, wobei das elektronische Element (E) mindestens den Verschlüsselungscode (28) aufweist und/oder mit mindestens dem Verschlüsselungscode (28) digital verknüpft ist, insbesondere wobei der Verschlüsselungscode (28) in der IT -Infrastruktur (11), vorzugsweise bei der autorisierten Prüfeinrichtung und/oder autorisierten Behörde, gespeichert ist, insbesondere wobei der Verschlüsselungscode (28) mit dem einmaligen, persön- lichen ID-Code des Nutzers (7) digital verknüpft ist, vorzugsweise wobei der Verschlüsselungscode (28) wenigstens den Schlüssel und/oder das digital ver- knüpfte Schlüsselpaar aufweist, insbesondere wobei der Schlüssel die Original- kennung und/oder die gespeicherten digitalen Daten der Originalkennung, ins- besondere des physischen Originalkennungselementes, vorzugsweise die digita- len Daten des spezifischen und/oder des biometrischen Bildscans enthält, insbe- sondere wobei der Iris- und/oder der Fingerabdruck- und/oder der Gesichtscan zur Authentifizierung und Identifizierung in der IT -Infrastruktur (11) verwendet wird, vorzugsweise wobei zur Identifizierung und Authentifizierung des Bild- scans die automatisierte digitale Verknüpfung des elektronischen Elementes des Nutzers (7) mit der IT Infrastruktur hergestellt wird, vorzugsweise wobei die digitalen Bilddaten des Bildscans einen sekundengenauen Zeitstempel aufwei- sen, insbesondere wobei die übertragenen Daten mit den gespeicherten digitalen Daten der Originalkennung (Stammbild Daten) durch die Bilderkennungssoft- ware verglichen werden, vorzugsweise wobei die erzeugten digitalen Daten des elektronischen Elementes in der IT Infrastruktur gespeichert sind oder werden, insbesondere ohne dass diese auf dem lokalen Rechner des Nutzers (7) instal- liert und/oder gespeichert sind, wobei das verschlüsselte Verfahren (14e) ver- schiedene Möglichkeiten der Abfolge der Verfahrenschritte vorsieht und/oder jjj) das elektronische Element (E) und/oder das verschlüsselte Verfahren (14e) und/oder das verschlüsselte Buchfiihrungssystem (14) und/oder der Verschlüs- selungscode (28) sind digital verknüpft mit einer und/oder weisen eine, vor- zugsweise wenigstens einmalige, Geräte- und/oder Fahrgestellnummer (28b) und/oder IMSI Kennung ( 28b) (International Mobile Subscriber Identity, inter- nationale Mobilfunk-Teilnehmerkennung) und/oder ICCID - Kennung (28b) (Integrated Circuit Cart ID) und/oder IMEI- Nummer (28b) ( Mobile Equipment Identity) und/oder MSISDN-Nummer (28b) ( Mobile Station ISDN Number) zur Identifikation und/oder Authentifizierung eines Nutzers (7) und/oder einer Nutzanwendung(7a) und/oder einer Entität(7a) auf, wobei das elektronische Element (E) und/oder das Hardwareelement (27) wenigstens eine elektronische Schaltung, vorzugsweise wenigstens einen integrierten Schaltkreis (IC, Inte- grated Circuit), vorzugsweise in wenigstens einem Chip und/oder Chipelement, enthält, und/oder insbesondere aus wenigstens einer auswechselbaren physi- schen Chipkarte und/oder Speicherkarte und/oder einer eingebauten physisch nicht auswechselbaren Chipkarte und/oder Speicherkarte und/oder einem chip- karten- und/oder speicherkartenidentischen Funktion aufweisendem Element be- steht, vorzugsweise als All-In-Element/-Modul/-Smartcard (Omnicard,0) aus- gebildet, vorzugsweise ausgebildet als wenigstens eine SIM Karte (la) (Subsriber Identitity Module) und/oder USIM Karte (Universal Subsriber Identi- tity Module) und/oder embedded SIM (la) ( eSIM) und/oder SEM- kartenidenti- sche Funktion aufweisendem Element (la), vorzugsweise mit UICC- Hard- wareelement (Universal Integrated Circuit Card) und/oder mit SIM und/oder USIM - Software Anwendung und/oder mit NFC-Funktion und/oder NFC Hardwareelement ( Near Field Communication) und/oder kkk) der in der IT- Infrastruktur gepeicherte Verschlüsselungscode (28) und/oder ID-Code (28C) des Nutzers (7) und/oder der Nutzanwendung (7a) und/oder der Entität (7a), insbesondere die personenebezogenen Daten eines Nutzers (7) sind vorzugsweise in einer Mehrzahl von dezentralen Datentresoren gespeichert und gesichert zur Vermeidung eines Single Point of Failure, vorzugsweise bei dem zuständigen Einwohnermeldeamt eines Nutzers (7), vozugsweise wobei über die IMSI-Kennung eine automatisierte digitale Verknüpfung zwischen dem Ein- wohnermeldeamt und dem Nutzer zur Authentifizierung hergestellt oder bei ei- ner Störung eine Weiterleitung an ein anderes Einwohnermeldeamt vorgesehen ist und/oder

111) das elektronische Element (E) und/oder die IT-Infrastruktur (11) und/oder das digitale Netz (10) und/oder das Modul (25a) und/oder der Chip (27c) und/oder das Chipelement (27c) weist vorzugsweise wenigstens ein autarkes und/oder privates Betriebssystem (25) und/oder wenigstens eine autarke und/oder private Software und/oder App Anwendung auf, insbesondere ein neu entwickeltes und/oder ein vorhandenes, jedoch bisher nicht öffentlich und/oder im Intenet verwendetes Betriebssystem und/oder Software und/oder App Anwendung vorgesehen und/oder enthalten ist.

4. Verwendung nach Anspruch 2 und 3, wobei dass das elektronisches Element (E) und/oder die Originalkennung und/oder das Originalkennungselement in den nachfol- genden Elementen und/oder Modulen enthalten und/oder damit verbindbar ist und we- nigstens eine computergestützte, zumindest teilweise automatisiert und/oder autonom abfolgende Steuerungs- (lb) und/oder Regelungs- (lb) und/oder Mess- (lb) und/oder Sensorfunktion (lb) enthält, für das computergestütztes Verfahren, zur zumindest teil- weise automatisiert und/oder autonom abfolgenden Steuerung (lb), insbesondere Fern- steuerung (lb) und/oder Selbststeuerung (lb) und/oder Ansteuerung (lb) und/oder Re- gelung und/oder Kontrolle (lb) eines und/oder einer Mehrzahl von Fahrzeugen (10) und/oder Robotern (9) und/oder Fortbewegungsmitteln (10) und/oder Elektrogeräten (2b) und/oder Nutzanwendungen (7a) und/oder Anzeigeelementen (2), insbesondere mittels wenigstens eines der Hardwaremodule (27b), vorzugsweise des Steuerungs- (6b) und/oder Regelungsmoduls (6b), insbesondere zur Verkehrssteuerung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder -telematik (8), wobei die in dem elektro- nischen Element enthaltene Software (26) und/oder APP Anwendung (26) insbesondere mittels des Datenverarbeitungseinrichtungsmoduls (6b) und/oder des Datenverarbei- tungseinrichtungselementes (2b), vorzugsweise dem Computer/Rechner (6b), mit dem darin abgelegtem Programmiermittel, insbesondere mit wenigstens einer Ausfuhrungs- datei, anhand von eingebenen Informationen und/oder unter Verwendung einer Daten- bank, insbesondere unter Verwendung von raum- und/oder zeit- und/oder messspezifi- schen und/oder telemetrischen Daten und/oder Echtzeitdaten, insbesondere mittels des Telemetrie- (24) und/oder Telematik- (24)und/oder Sensor- (18) und/oder Messmoduls (6b), wobei wenigstens eine der nachfolgenden technischen Funktionen und/oder Merkmale a) vorzugsweise eine Mehrzahl von Fahrzeugen (10) und/oder Robotern (9) und/oder Fortbewegungsmitteln (10) und/oder Elektrogeräten (2b) und/oder Nutzanwendungen (7a) und/oder Anzeigeelementen (2), fuhrt wenigstens ein programmiertes Handlungs- (49) und/oder Aktions- (49) und/oder Ausfuhrungs- (49) und/oder Herstellungsmuster (49) und/oder ein Fahr- und/oder Raum- und/oder Routenmuster aus , insbesondere durch Übertragung der digitalen Aus- fuhrungsdaten auf das Steuerungs-(6b) und/oder Regelungsmodul (6b) und/oder b) das Fahrzeug, ist vorzugsweise als ein Landfahrzeug (40) und/oder Landrobo- ter (40), insbesondere Kraftfahrzeug, vorzugsweise PKW, LKW, Omnibus, Zweirad, Motorrad, E-ßike, E-Roller, Caravan, Nutzfahrzeug, Kettenfahrzeug, Anhänger und/oder ein spurgebundenes Fahrzeug und/oder spurgebundenes Roboter, vorzugsweise schienen- und/oder seil- und/oder signalgebebundenes, vorzugsweise licht- und/oder tonsignalgebundes Fahrzeug und/oder Roboter, insbesondere Strassenbahn-, Zug-, Seilbahn-, Kettenbahn- und/oder Flugmobile- fahrzeug, insbesondere Luftfahrtfahrzeug (42) und/oder Luftfahrtroboter (42), insbesondere Flugzeug (42), Hubschrauber (42) Drohne (37), Quadrocopter (38), Multicopter (38), Ballon, Zepplin und/oder Raumfahroboter(43) und/oder Raumfahrzeug (43), vorzugsweise Rakete, Raumschiff, Satelliten-Raumsonde und/oder Wasser- (41) und/oder Unterwasserfahrzeug und/oder Unterwasserro- boter- (41 ), vorzugsweise Schiff- , Boot- und/oder Unterwasserboot vorgesehen und/oder ausgebildet und/oder c) das elektronische Element (E) weist wenigstens eine digitale Verbindung und/oder Verknüpfung (33), vorzugsweise mit dem Bordcomputer (34) des Fahrzeuges (10) und/oder des Roboters (9) und/oder des Fortbewegungsmittels (10) und/oder des Elektrogerätes (2b) und/oder der Nutzanwendung (7a) und/oder des Anzeigeelementes (2) auf und/oder d) das programmierte Handlungs- (49) und/oder Aktions- (49) und/oder Ausfüh- rungs- (49) und/oder Herstellungsmuster (49) weist vorzugsweise wenigstens eine programmierte, virtuelle Begrenzung (63) und/oder Limitierung (63) auf und/oder e) die programmierte virtuelle Begrenzung (63) und/oder Limitierung (63) ist an- hand von physischen und/oder virtuellen Raum- und/oder Zeit- und/oder Grenzwertdaten ausgebildet, wobei die Raum und/oder -Zeitdaten vorzugsweise eine virtuelle Wand und/oder -Scheibe und/oder eine lineare und/oder flächige und/oder sphärische 2D- und/oder 3D und/oder 4D Begrenzung erzeugen, die vorzugseise als Bewegungs und/oder Handlungsbegrenzung für ein Roboter (9) und/oder Fahrzeug und/oder Fortbewegungsmittel (10) vorgesehen ist und/oder f) die programmierte virtuelle Begrenzung (63) und/oder Limitierung (63) ist dem

Handlungs- (49) und/oder Aktions-(49) und/oder Ausführungs- (49) und/oder Herstellungsmuster (49), insbesondere dem Fahr- und / oder Raum- und / oder Routenmuster zugeordnet und/oder g) das programmierte Handlungs- (49) und/oder Aktions-(49) und/oder Ausfuh- rungs- (49) und/oder Herstellungsmuster (49) und/oder die programmierte virtu- elle Begrenzung (63) und/oder Limitierung (63) basiert vorzugsweise auf einem Simulations- und/oder Testverfahren mit vorzugsweise einem Testroboter und/oder einem Testfahrzeug, vorzugsweise wobei die prototypisch erfaßten digitalen Informations- und/oder Messdaten eines physischen und/oder virtuel- len 2D und/oder3D und/oder 4D Simulations- und/oder Testmodells und/oder Echtzeitdaten während des Tests erfasst werden und zur Programmierung der Steuerungssoftware und für das Programmiermittel vorgesehen sind und ver- wendet werden und/oder h) das Simulations- und/oder Testverfahren ist vorzugsweise zur digtalen Erfas- sung des Handlungs- (49) und/oder Aktions-(49) und/oder Ausführungs- (49) und/oder Herstellungsmusters (49), insbesondere des Fahr- und/oder Raum- und /oder Routenmusters für die Verkehrssteuerung vorgesehen, insbesondere wobei mittels des Testroboters und/oder des Testfahrzeugs digitale Raum- und /oder Zeitdaten erfasst und gespeichert und für das Programmiermittel verwendet werden und/oder i) das Simulations- und/oder Testverfahren mit dem Testroboter und/oder dem Testfahrzeug und die Erfassung der Echtzeitdaten ist vorzugsweise mittels we- nigstens eines der Hardwaremodule (27a) vorgesehen, vorzugsweise durch Sen- sor,- und/oder Scanner- und/oder Video- und/oder Kameraerfassung und/oder Funk- und/oder Mobilfunk- und/oder Satelliten- und/oder Radarortung, insbe- sondere mittels Echtzeit Positionierungsservice (HEPS) und/oder Radarspotting und/oder Global positioning System (GPS) und/oder Flight radar 24 Daten als cyber- physisches System (CPS), wobei die Daten des Simulations- und/oder Testverfahrens erfasst und/oder analysiert und/oder visualisiert und/oder gespei- chert und/oder verarbeitet und für das Programmiermittel verwendet werden und/oder j) die Echtzeitdaten sind zur permanenten Aktualisierung und/oder Korrektur für das programmierte Handlungs- (49) und/oder Aktions-(49) und/oder Ausfüh- rungs- (49) und/oder Herstellungsmuster (49), insbesondere das für Fahr- und/oder Raum- und/oder Routenmuster und/oder die programmierte virtuelle Begrenzung und/oder Limitierung (63) vorgesehen und/oder k) das programmierte Handlungs- (49) und/oder Aktions-(49) und/oder Ausfüh- rungs- (49) und/oder Herstellungsmuster (49) und/oder die programmierte virtu- elle Begrenzung (63) und/oder Limitierung (63) ist vorzugsweise wenigstens in eine Richtung (53) und/oder wiederkehrend (50) und/oder linear und/oder um- laufend (50) und/oder kreisförmig und/oder als Kreislauf (50) und/oder wenig- stens zwei (2D) - und/oder dreidimensional (3D) (51) und/oder vierdimensional (4D) und/oder wenigstens in zwei Ebenen (52), räumlich übereinander, ausge- bildet und/oder vorgesehen und/oder l) die Ausführungsdatei, insbesondere des Programmiermittels, enthält vorzugs- weise eine Datei zur Ausführung zur automatisierten und/oder autonomen Selbststeuerung (lb), vorzugsweise eine Code.file Ausführungsdatei Datei, so dass eine Fernsteuerung von einem externen und/oder räumlich entfernten Ort nicht notwendig ist und/oder m) die Verkehrssteuerung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder -telematik ist für wenigstens ein Landfahr und/oder ein Wasserfahr- und/oder ein Unterwasserfahr- und/oder ein Luftfahr- und/oder ein Raumfahr- netz und/oder- System und/oder -Verkehrsnetz-, insbesondere für ein Straßen- (32) und/oder Wege-(32) und/oder spurgebundenes Fahrweg- (32) und/oder Fahrwegenetz (32) ausgebildet und/oder vorgesehen und/oder n) das elektronische Element (E) ist vorzugsweise als ein Straßen- (32a) und/oder Wege- (32a) und/oder spurgebundenes Fahrwegelement (32a) und/oder Fahr- wegenetzelement (32a), vorzugsweise als optisches und/oder akustisches Si- gnalelement (2d) und/oder als das Anzeigeelement (2) ausgebildet und/oder vorgesehen und/oder o) das elektronische Element (E) ist insbesondere für ein spur- und/oder schienen- gebundenes Verkehrssystem- (32b) und/oder Schienennetz (32b) und/oder Bahnanlage (32b) und/oder Bahninfrastruktur (32b), insbesondere für einen Bahnhof (32c) und/oder ein Stellwerk (32c), und/oder ein schienengebundenes Verkehrsmittel und/oder Fahrzeug (39a) und/oder schienengebundenes Rollma- terial (39a), vorzugsweise ein Schienenfahrzeug (39a) und/oder eine Eisenbahn (39a) und/oder einen Eisenbahnwagen (39a) und/oder einen Zug (39a) und/oder eine Lokomotive (39a) und/oder ein Triebfahrzeug (39a) ausgebildet und/oder vorgesehen und/oder p) das elektronische Element (E) ist vorzugsweise als ein Stellwerks- (32d), insbe- sondere als Rangier- (32d) und/oder Ablauf- (32d) und/oder Zentral- (32d) und/oder Strecken- (32d) und/oder Knotenstellwerks- (32d) und/oder als ein Gleis- (32e) und/oder Gleissperr- (32e) und/oder Weichen- (32e) und/oder Bahnübergangssicherungsanlagenelement (32e) ausgebildet und/oder vorgese- hen und/oder q) das elektronische Element (E) ist vorzugsweise für die Funktion und/oder Ge- währleistung der Fahrerlaubnis- und/oder der Geschwindigkeits- und/oder Rich- tungs- und/oder Fahrwegssteuerung und/oder -freigabe und/oder -kontrolle und/oder zum Zwecke betrieblicher und/oder fahrzeugabhängiger und/oder streckenseitiger Zusatzinformation, vorzugsweise für Gleisfreimeldeanlagen und /oder Gleisfreimeldungen und/oder Fahrgastinformationen vorgesehen und/oder, ausgebildet, vorzugsweise für ein spur- und/oder schienengebundenes Verkehrs- system- (32b) und/oder Schienennetz (32b) und/oder r) das elektronische Element (E) ist vorzugsweise für einen Aufklärungs-Roboter (33a) und/oder für ein Aufklärungs-Fortbewegungsmittel (33a), vorzugsweise für ein Flugmobil (42) und/oder ein Luftfahr-(42) und/oder ein Raumfahrzeug (42), vorzugsweise zur Verkehrs- und/oder Verkehrshindemiserkennung (33), vorgesehen und/oder ausgebildet, vorzugsweise wobei der Aufklärungs-Roboter (33a) und//oder das Aufklärungs-Fortbewegungsmittel (33a) zur vorzugsweise flächendeckenden Land- und/oder Luft- und/oder Wasser- und/oder Unterwas- ser- und/oder Weltraumbeobachtung- und/oder -kontrolle ausgebildet ist und/oder vorgesehen ist und/oder s) der Aufklärungroboter (33a) und/oder das Aufklärungsfortbewegungsmittel (33a) bewegt sich zur Verkehrshindemisüberwachung vorzugsweise in einem definierten Abstand vor dem Roboter (9) und/oder Fortbwegungsmittel (10), insbesondere vor einem Schienenfahrzeug, vorweg, insbesondere wobei der Aufklärungroboter (33 a) und/oder das Aufklärungsfortbewegungsmittel zur Er- kennung und/oder Erfassung und/oder Meldung der Verkehrslage und/oder zur- Verkehrshindemiserkennung (33) ausgebildet und/oder vorgesehen ist und/oder t) die Verkehrssteuerung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder -telematik ist für wenigstens eine physische Route, vorzugsweise für den außerstädtischen- und/oder innerstädtischen Verkehr ausgebildet und/oder vorgesehen, vorzugsweise wobei die physische Route linien-, ring- und/oder Stern- und/oder rasterförmig ausgebildet ist und/oder u) die physische Route ist vorzugsweise als wenigstens eine Transportgüterroute (44) und/oder als eine Route für den öffentlichen und/oder privaten Personen- verkehr (45) ausgebildet und/oder vorgesehen und/oder v) die physische Route weist wenigstens eine, vorzugsweise ein- oder mehrge- schossige, Service-(D) und/oder Wartungs- (D) und/oder Auflade- (D), insbe- sondere Halte- (El, E2) und/oder Basis- (E, E2) und /oder Güterstation (Fl) auf, vorzugsweise wobei eine derartige Station eine Park- (G) und/oder Verla- de- (H) und/oder /oder Fortbewegungsmittel-Mietfunktion (I), insbesondere für Mietfahrzeuge und/oder Carsharing-Fahrzeuge aufweist und/oder w) vorzugsweise weist eine Halte- und/oder Basisstation (E1 E2) das Energiever- sorgungselement (lh) und/oder die Energieversorgungsfunktion (lh) auf und/oder ist dafür vorgesehen und/oder ausgebildet, insbesondere wobei die Energieversorgung (lh) mittels Stromabnehmer und/oder drahtloser Energie- übertragung, vorzugsweise durch Induktionsstrom, vorgesehen ist und/oder x) die Verkehrssteuerung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder -telematik und/oder das Verfahren enthält vorzugsweise für wenigstens eine physische Route eine automatisierte Verkehrsteuerung von Fahrzeugen mit unterschiedlichen Fahrtrichtungen, insbesondere die Verkehrssteuerung für ei- nen F ahrbahneinmündungs - und/oder Kreuzungs- (K) und/oder Kreiselverkehr mit, wobei wenigstens zwei sich in einer Ebene überschneidende und/oder tan- gierende physische Routen mittels der Programmierung gesteuert werden, vorzugsweise für wenigstens eine Fahrbahneinmündung und/oder eine Kreu- zung (K) und /oder einen Kreisel und/oder y) eine Route weist vorzugsweise definierte Ortungsmodule und/oder Ortungsmar- kierungen mit definierten Raumkoordinaten auf, wobei die definierten Raumko- ordinaten als digitale Daten mittels des elektonischen Elementes (E), an das Fahrzeug und/oder an den den Roboter (9) und /oder an das Fortbewegungsmit- tel (10) übertragen werden, vorzugsweise zur Ortsbestimmung des Roboters (9) und /oder des Fortbewegungsmittels (10) und/oder z) der Roboter (9) und/oder das Fortbewegungsmittel (10) ist vorzugsweise zur Unterstützung und/oder Verbesserung und/oder Gewährleistung vorzugsweise wiederkehrender menschlicher Arbeiten und/oder Tätigkeiten, insbesondere körperlicher und/oder mechanischer Art vorgesehen und/oder aa) das Roboter- (9) und/oder das Fortbewegungsmittelelement (10) ist nanoskalig, vorzugsweise im Bereich von 1L3 nm ( Ein Kubiknanometer) bis 100L3 nm ( Hundert Kubiknanometer) vorgesehen und/oder ausgebildet besonders bevor- zugt zur Verwendung als Drohne (37), vorzugsweise in der Medizintechnik und/oder bb) der Roboter (9) und/oder das Fortbewegungsmittel (10) ist vorzugsweise als Medizinroboter, insbesondere als Diagnose- und/oder Therapie- und/oder Ope- rations- und/oder Prothesen-Roboter, insbesondere zur Steuerung einer und/oder einer Mehrzahl von nanoskaligen Drohnen im menschlichen Körper vorzugsweise zum Zwecke der Therapie mit Medikamenten und/oder für opera- tive Eingriffe vorgesehen und/oder ausgebildet und/oder cc) der Roboter (9) und/oder das Fortbewegungsmittel (10) ist vorzugsweise als Roboter für die Landwirtschaft vorgesehen und/oder ausgebildet und/oder dd) der Roboter (9) und/oder das Fortbewegungsmittel (10) enthält eine autark steuerbare und/oder femsteuerbare, automatisierte und/oder manuelle Abschalt- vorrichtung und/oder Kurzschlussvorrichtung als Notabschaltung, insbesondere zur Trennung der Energieversorgung und/oder zum Beenden der Programmaus- führung und/oder ee) zur Steuerung des Roboters (9) und/oder des Fortbewegungsmittels (10) ist vor- zugsweise kein Fahrzeugf hrer und/oder kein Pilot notwendig ist und/oder ff) der Roboter (9) und/oder das Fortbewegungsmittel (10) ist vorzugsweise· durch definierte automatisierte Abläufe teilweise autonom agierend und/oder autonom fahrend ausgebildet, wobei ein Mensch die automatisierte Steuerung und/oder Fernsteuerung bedient und überwacht und/oder gg) der Roboter (9) und/oder das Fortbewegungsmittel (10) ist vorzugsweise ohne den Einfluss und/oder das Eingreifen eines Menschen automatisiert agierend vorgesehen und/oder ausgebildet und/oder hh) der Roboter (9) und/oder das Fortbewegungsmittel (10) ist vorzugsweise ohne physische Bedienelemente, insbesondere ohne Schalter und/oder Knöpfe und/oder Tasten und/oder Regler und/oder Steuer- und/oder Lenkrad und/oder Gas,- und/oder Brems- und/oder Kupplungspedal vorgesehen und/oder ausge- bildet und/oder ii) der Roboter (9) und/oder das Fortbewegungsmittel (10) weist vorzugsweise we- nigstens ein Funktionselement (C) und/oder eine Funktionssubstanz (C) und/oder ein Funktionsmittel (C) zur Verrichtung der Arbeiten und/oder Tätig- keiten auf und/oder jj) der Roboter (9) und/oder das Fortbewegungsmittel (10) weist als Basis zumin- dest bereichsweise ein, vorzugsweise hohlraumaufweisendes, plattenförmiges Element (54) auf und/oder kk) das plattenförmige Element (54) weist vorzugsweise eine Bauhöhe (f) von 1 nm (Nanometer) bis 500 mm ( Millimeter) auf und/oder

11) das plattenförmige Element enthält vorzugsweise die vollständige Fahrzeug- techik, vorzugsweise ausgebildet als Elektromotor-Fahrzeugtechnik, für den Roboter (9) und/oder das Fortbewegungsmittel (10) und/oder mm) der Roboter (9) und/oder das Fortbewegungsmittel (10) und/oder das platten- förmige Element (54) weist wenigstens einen in beliebiger Richtung und/oder Geschwindigkeit ansteuerbaren Motor (48) auf und/oder und/oder ein derartiger Motor (48) ist dafür vorgesehen und/oder ausgebildet und/oder nn) für dass das plattenförmige Element (54) ist vorzugsweise wenigstens ein aus- tauschbares Modul- (47) und/oder Funktionselement (47), insbesondere Modul- (47) und/oder Funktionsaufsatzelement (47) vorgesehen und/oder ausgebildet, und/oder oo) das plattenförmige Element (54) weist vorzugsweise eine Adapterelement für handelsübliche Container und/oder LKW- Aufliegerelemente auf, insbesondere für Seecontainer auf und/oder pp) das plattenförmige Element (54) und/oder das Modul- (47) und/oder Funktions- element (47) ist vorzugsweise zur Beförderung von wenigstens einer Person und/oder einer Entität und/oder von einem Transportgut und/oder einem zweiten Roboter (9) und/oder einem zweiten Fortbewegungsmittel (10) und/oder der Funktionssubstanz (C) und/oder dem Funktionsmittel (C) vorgesehen und/oder qq)das Roboter- (9) und/oder das Fortbewegungsmittelelement (10) ist für die Fort- bewegung und Arbeit in, insbesondere gesundheitsschädlichen, Flüssigkeiten und/oder Gasen und/oder Substanzen vorgesehen und/oder rr) das elektronisches Element (E) ist vorgesehen zur Kontrolle (28) des toten Win- kels (a) des Roboters (9) und/oder des Fortbewegungsmittels (10), insbesondere eines Lastkraftwagens (L), vorzugsweise mittels wenigstens des Kamera- und/oder des Sensormoduls, besonders bevorzugt des Ultraschallsensormoduls, vorzugsweise wobei dem Fahrer des Lastkraftwagens und/oder dem gefährdeten Menschen und/oder der Entität, insbesondere einem Radfahrer (R), eine Gefahr mit einem optischen und/oder akustischen und/oder haptischen Warnsignal an- gezeigt wird vorgesehen und/oder enthalten ist.

5. Elektrisch angesteuertes Anzeigeeement (2) mit dem integrierten elektronischen Element (E) und/oder mit der integrierten Originalkennung und/oder mit dem integrier- ten Originalkennungselement nach Anspruch 3 und 4, wobei wenigstens eine der fol- genden technischen Funktionen und/oder Merkmale a) das elektronische Element in dem Anzeigeelement (2) weist vorzugsweise ma- ximal ein Format von 85,6 mm x 54 mm auf, insbesondere ein Format 25 mm x 15 mm und/oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm auf und/oder b) das elektronische Element in dem Anzeigeelement (2) weist vorzugsweise eine Dicke von maximal 1 mm aufweist, vorzugsweise eine Dicke von mindestens 0,3 - 1 m , insbesondere 0,76 mm und / oder 0,67 mm und/oder c) das Anzeigeelement (2) weist vorzugsweise ein Energieversorgungselement (lh) und/oder einen Akkumulator (lh) und /oder ein Batterieelement (lh) auf mit einer Dicke von vorzugsweise lnm (Nanometer) bis 500 mm, vorzugsweise von 20 bis 1000 mih (Mikrometer) , insbesondere von 20 bis 100 mih, insbeson- dere von 0,3 bis 4,5 mm auf und/oder d) das Energieversorgungselement (lh) des Anzeigeelementes (2) weist insbeson- dere ein Stromversorgungselement (lh) auf, das vorzugsweise zur drahtlosen und/oder kabelgebunden Energieübertragung auf technischer Basis einer Ver- bindung mit dem Stromnetz und/oder des Akkumulators (lh) und/oder des Bat- terieelementes (lh) und/oder mittels Induktions- und/oder Funkstroms und/oder durch Ultraschallübertragung ausgebildet und/oder vorgesehen ist, vorzugsweise wobei die Ultraschallübertragung mit piezotechnikbasierten Sen- soren erzeugt wird, vorzugsweise wobei die elektromagnetische Induktion, ins- besondere mittels QI Funktion und/oder vorzugsweise wobei das Energiever- sorgungselement (lh) als ein photovoltaisches Element ausgebildet ist und/oder e) das Anzeigeelement besteht vorzugsweise aus einem Bildschirm (2e) und/oder Screen (2e) und/oder Display (2) insbesondere Smart Display (2e), und/oder Monitor (2e) und /oder Touchsreen Oberfläche (2e) oder aus einer projezierten Oberfläche (2f) besteht vorzugsweise wobei das Anzeigeelement (2) eine Gra- fik- und/oder Grafikartenfunktion und/oder Grafikschnittstelle, aufweist und/oder f) die projezierte Oberfläche und/oder Projektion als wenigstens zwei- (2D) und/oder dreidimensionale (3D) Projektion, vorzugsweise als Hologrammpro- jektion und/oder als volumetrische Projektion, insbesondere als frei im Raum schwebende Projektion (optical trap display), vorgesehen ist und/oder g) die projezierte Oberfläche und/oder Projektion, ist vorzugsweise mittels einer Projektions Vorrichtung und/oder Projektionseinrichtung und/oder Projektions- anordnung vorzugsweise mittels eines Linsensystems und/oder Beamers und/oder Laserbeamers und/oder mittels Laserstrahlfunktion und/oder Laserbe- leuchtungsfunktion, vorzugsweise mittels RGB Lasern, vorgesehen und/oder ausgebildet und/oder h) das Anzeigeelement (2) und/oder das elektronische Element (E) ist vorzugswei- se als Folie und/oder Platte, vorzugsweise aus Glas- und/oder Kunststoffmate- rial, als ein Foliendisplay und/oder ein Plattendisplay, insbesondere auf Basis petrochemischer und/oder synthetischer und/oder halbsynthetischer und /oder biopolymerer Kunststoffe und/oder organischer Stoffe ausgebildet und/oder er- zeugbar und/oder i) die Darstellungstechnik des Anzeigeelementes (2) und/oder der Folie und/oder Platte, ist vorzugsweise auf technologischer Basis einer Light Emitting Diode ( LED) und/oder eines Feldemmisionsbildschirms (FED) und/oder eines Flüssig- kristallbildschirms (LCD) und/oder eines Dünnschichttransistorbildschirms (TFT-LCD) und/oder eines Kathodenstrahlröhrenbildschirms (CRT) und/oder eines Plasmabildschirms und/oder einer organische Leuchtdiode (OLED) und/oder einer SOLED oder einer SMOLED-Folie und/oder einer PLED und/oder einer AMOLED-(Aktivmatrix-OLED) und/oder einer Super AMOLED+ und/oder eines Surface Conduction Electron-Emitter Displays ( SED) und/oder einer QLED und/oder einer Micro LED (mikroskopische Leuchtdiode) und/oder eines Retina-4K und/oder 5K Displays und/oder eines HDR ( High Dynamic Range) Displays und/oder einer elektronischer Tinte (E- Ink) und/oder eines E-Papers ausgebildet und/oder erzeugbar und/oder j) die Micro LED Pixel weisen eine Auflösung von mindestens 7680 x4320 Bild- punkten auf und/oder k) die Folie und/oder die Platte enthält vorzugsweise wenigstens ein metallhaltiges Material und/oder eine metallhaltige Beschichtung zur Ausbildung und Erzeu- gung der Elektronik des Anzeigeelementes (2) und/oder des elektronischen Elementes und/oder l) das metallhaltige Material und/oder die metallhaltige Beschichtung weist we- nigstens ein Metall und/oder Halbmetall und/oder eine Metalllegierung und/oder chemische, metallhaltige Verbindung, vorzugsweise auf Basis einer polymeren Verbindung auf und/oder m) die Folie und/oder die Platte weist eine Stärke von vorzugsweise 1mm - 500 mm (Millimeter), vorzugsweise von 20 mm bis 1000 mm (Mikrometer), insbe- sondere von 20 mm bis 100 mm, insbesondere von lnm (Nanometer) bis 19 mm auf und/oder n) die Folie und/oder Platte weist vorzugsweise eine gedruckte Elektronik (2c) auf und/oder o) die gedruckte Elektronik (2c) ist durch durch 2D und/oder 3D Druck erzeugbar, wobei der Druck wenigstens ein Dünnschichtelement und/oder Schaltkreis- und/oder Elektronik- und/oder Speicher- und/oder Prozessor- und/oder Mi- kroprozesssor und/oder Sensor- und/oder Grafik-und/oder Audio- und oder das Energieversorgungs- und/oder das Batterie- (lh) und/oder das Akkumulator- (lh) und/oder Chip (27c) und/oder Chipelement (27c), aufweist und/oder p) die Folie und/oder die Platte und/oder die Elektronik und/oder die gedruckte Elektronik (2c) ist vorzugsweise transparent und/oder transluzent und/oder lichtdurchlässig und/oder optisch oder visuell nicht erkennbar ausgebildet und/oder q) das metallhaltige Material und/oder die metallhaltige Beschichtung, insbeson- dere oberseitig, der Benutzungsseite zugewandt, ist zumindest bereichsweise sichtbar, vorzugsweise optisch oder visuell erkennbar und/oder scheint optisch oder visuell durch und/oder r) das Anzeigeelement (2) und/oder das elektronisches Element (E) weist einen mehrlagigen Schichtaufbau (A) und/oder eine Verbundschicht (A) und/oder ei- ne Trägerschicht (5) und/oder eine Untergrundschicht (5) auf, vorzugsweise wobei die Verbindung der einzelnen Schichten durch Kaschierung (5a) und/oder Verpressung (5a) und/oder Verklebung (5a) und/oder Laminierung (5a) erzeugbar und/oder ausgebildet ist, vorzugsweise wobei die Kaschierung (5a) mittels eines Rollenkaschier- und/oder eines Flächenkaschierverfahrens er- zeugbar und/oder ausgebildet ist und/oder s) das elektronisches Element (E) und/oder das Anzeigeelement (2) ist randlos ausgebildet und/oder randlos erzeugbar, vorzugsweise wobei der Randbereich (5b) und/oder die Randseite (5b) elektrisch isolierend ausgebildet ist und/oder t) der Randbereich (5b) und/oder die Randseite (5b) weist vorzugsweise eine Fa- se und/oder einen Radius und/oder eine frei ausgebildete Kontur auf, vorzugs- weise wobei der Radius und/oder die Fase im Bereich zwischen 0,1mm und 2 mm liegt und/oder u) die gedruckte Elektonik (2c) für die Folie und/oder die Platte und/oder das Energieversorgungselement (lh) und/oder den Akkumulator (lh) und /oder das Batterieelement (lh) weist eine Dicke von vorzugsweise wenigstens lnm (Na- nometer) , vorzugsweise von 20 mm bis 1000 mm (Mikrometer), insbesondere von 20 bis 100 mhi (Mikrometer), insbesondere von 0,3 bis 4,5 mm ( Millime- ter) auf und/oder v) das Anzeigeelement (2) und/oder das elektronische Element (E) ist rahmenlos und/oder mit einem Rahmenelement ausgebildet und/oder vorgesehen und/oder w) für die die Folie und/oder die Platte sind an wenigstens einer der Randseiten (5b) , vorzugsweise an allen Randseiten (5b) des mehrlagigen Schichtaufbaus (A) und/oder der Verbundschicht (A) und/oder der Trägerschicht (5) und/oder der Untergrundschicht (5), bevorzugt zueinander korrespondierende und/oder an den einander gegenüberliegenden Randseiten (5b) komplementär ausgebil- dete, vorzugsweise miteinander verrastbare und/oder verbindbare, Verriege- lungskonturen vorgesehen und/oder ausgebildet, insbesondere wobei die Ver- riegelungskonturen als Nut-Feder-Verbindung ausgebildet sind und/oder x) wenigstens zwei Folien und/oder wenigstens zwei Platten sind als eine zusam- menhängende Fläche vorgesehen und/oder ausgebildet, insbesondere wobei der Bildübergang zwischen den Folien und/oder Platten vorzugsweise optisch naht- los und /oder fugenlos ausgebildet ist und/oder y) die verrastbare und/oder verbindbare Verriegelungskontur und/oder der nahtlo- se und/oder fugenlose Bildübergang weist vorzugsweise eine Stoß- und/oder Spielverbindung auf, vorzugsweise mit einer Breite von bis zu 2 mm und/oder z) die Platte und/oder die Folie ist insbesondere als Boden- und/oder Wand- und/oder Decken- und/oder Stand- und/oder als bewegliches-, insbesondere als fahrendes- und /oder schwimmendes- und/oder fliegendes Element, vorzugs- weise Displayelement, ausgebildet und/oder vorgesehen und/oder aa) die Anzeigeelemente (2) und/oder das elektronische Element (E) der zusam- menhängende Fläche werden einzeln und/oder im Verbund angesteuert zur spe- zifischen Erzeugung von veränderlichen Informationen wie Zeichen und/oder Bildern, vorzugsweise zur Erzeugung grossflächiger Bild- und/oder Filmdar- stellungen, vorzugsweise für Boden- und/oder Wand- und/oder Decken und/oder Möbeloberflächen und/oder bb) die Platte und/oder Folie und/oder das Anzeigeelement (2) weist dreidimensio- nale (3D) Verformungen auf und/oder ist dreidimensional verformbar, insbe- sondere rollbar und/oder faltbar und/oder gebogen (curved display) vorgesehen und/oder ausgebildet und/oder erzeugbar und/oder cc) die Platte und/oder Folie und/oder das Anzeigeelement (2) weist eine geometri- sche und/oder freie zweidimensionale und/oder dreidimensionale Form auf, vorzugsweise erzeugbar und/oder ausgebildet auf Basis von Rechteck- und/oder Quadrat und/oder, Kreis- und/oder Ellipsen- und/oder Dreieck- und/oder Viel- eck- und/oder Parabel- und/oder Freiformelementen und /oder derartig ausge- bildet und/oder vorgesehen und/oder dd)die Platte und/oder die Folie und/oder das Anzeigeelement für das Fahrzeug- (10) und/oder Roboter- (9) und/oder Fortbewegungsmittel- (10) und/oder Elek- trogeräte- (2b) und/oder Mobiltelefon- (2b) und/oder Smartphone-(2b) und/oder Mess-(2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Datenverarbei- tungseinrichtungs- (2b) und/oder Nutzanwendungselement (7a), ist vorzugs- weise flächenbündig in das Gehäuse und/oder die in die Karosserie integriert, insbesondere flächenbündig mit der Gehäuse- und/oder Karosseriehülle fluch- tend ausgebildet, vorzugsweise der Benutzungsseite und/oder Sichtseite der Gehäuse- und/oder Karosseriehülle zugewandt vorgesehen und/oder enthalten ist.

Description:
Elektronisches Element und elektrisch angesteuertes Anzeigeelement

Die Erfindung betrifft die Verwendung eines elektronischen Elementes (E) mit wenig- stens einer Prozessor- und Speicherfunktion (27b) zur Verwendung als ein Rechner- (6) und/oder Computerelement (6) und/oder Vorrichtungs- (2a) und/oder Bauteileelement (2a) mit einer Identifikations- (lc) und/oder Authentifizierungsfunktion (lc) eines Nut- zers in einem digitalen Netz (12) mittels eines computergestützten, zumindest teilweise automatisiert und/oder autonom abfolgenden verschlüsselten Verfahrens (14e) und/oder mit einer computergestützten, zumindest teilweise automatisiert und/oder autonom ab- folgenden Steuerungsfunktion (lb), wobei dass das elektronische Element (E) aus min- destens einem Hardwarelement (27) und/oder einer Software (26) besteht.

Die Gewährleistung der Cyber- und Datensicherheit von IT-Infrastrukturen ist ein stetig wachsendes Problemfeld und erfordert, insbesondere für Unternehmen, einen erhebli- chen finanziellen Aufwand, durch die permanent erforderliche Aktualisierung der Si- cherheitssysteme. Kaum gilt ein System als sicher, gelingt es Hackern sehr schnell wie- der neue Sicherheitslücken zu finden und in IT-Systeme und Datenbanken einzudrin- gen. Es herrscht ein ständiger Kampt zwischen IT -Sicherheitsexperten und kriminel- len Hackern, ohne das ein Ende in Sicht ist. Auch für den privaten Nutzer ist insbeson- dere der digitale Datenaustausch über das Internet oder das World Wide Web mit zahl- reichen Sicherheitsrisiken verbunden. Die Verletzung der informationellen Selbstbe- stimmung durch Datenmissbrauch oder Datendiebstahl gehört mittlerweile zum Alltag.

Aufgabe der vorliegenden Erfindung ist es diese Probleme zu lösen mitels ein ver- schlüsseltes Verfahrens, vorzugsweise mittels eines elektronischen Elementes (E). Die Erfindung schlägt eine neue Methode zur höchst sicheren Authentifizierung von Perso- nen und/oder Entitäten jedweder Art vor, vorzugsweise zur Prüfung und Verifizierung der Echtheit und Identitität eines Nutzers (7) und/oder der Nutzanwendung (7a) und/oder einer Entität (7a), vorzugsweise von Personen und/oder Dokumenten und/oder Kunstwerken und/oder Zahlungsmitteln und/oder Materialien und/oder Stoffen und/oder Substanzen und/oder Flüssigkeiten, vorzugsweise von Chip- und/oder Spei- cherkarten, Personalausweisen und/oder Reisepässen und/oder Versicherungsausweisen und/oder EC-Cash-Karten und/oder Kreditkarten und/oder Smartchipkarten und/oder Geldscheinen und/oder Wertmarken und/oder, insbesondere wertvollen Rohstoffen, vorzugsweise von Edelmetallen. Die Methode dient gleichzeitig zur höchst sicheren Authentifizierung von Personen, insbesondere zur gegenseitigen Authentifizierung ei- ner Mehrzahl von Nutzem (7) und/oder Nutzanwendungen (7a) und/oder Entitäten (7a) vorzugsweise in einem digitalen Netz (12), vorzugsweise öffentlichen digitalen Netzen, insbesondere dem Internet und/oder dem World Wide Web.

Es handelt sich dabei um technische Neuerung in der Kryptografie oder Kryptologie, zur Erzeugung einer höchst sicheren Authentifizierung durch das erfindungsgemäße verschlüsselte Verfahren (14e) mittels einer kryptologisch neuen Methode, wobei die Verschlüsselung durch eine Verifizierung von Messdaten einer Originalkennung und/oder eines Originalkennungselementes erfolgt, wobei das elektronische Element (E) weder durch physischen noch durch virtuellen Zugriff durch Hacker auslesbar und/oder kopierbar ist, wobei zum Entschlüsseln kein geheimer Schlüssel benötigt wird und keine Verschlüsselung verwendet wird, bei der aus einem Klartext mithilfe eines Schlüssels ein Geheimtext erzeugt wird. Die Methode kann beispielsweise als Alterna- tive zur Zwei-Faktor-Authentifizierung (2FA) und/oder zur Ende zu Ende Verschlüsse- lung und/oder anderen üblichen Verschlüsselungsverfahren verwendet werden.

Des weiteren schlägt die Erfindung vor zu Erhöhung der IT-Sicherheit ein manipulati- onssicheres Blockchainverfahrens durch einen Konsens- und Blockbildungsmechanis- mus auf Basis des Proof of Authority - Prinzips mittels der Identifikations- (lc) und/oder Authentifizierungsfunktion (lc) und des verschlüsselten Verfahrens (14e), bei denen sich wenigstens zwei Nutzer (7) gegenseitig authentifizieren und identifizieren und verifizieren und durch Konsensbildung auf die Wahrheit einer Transaktion und/oder Information einigen, diese vereinbaren, und diese Transaktion in einem Block der Blockchain unveränderbar gespeichert wird, insbesondere zur Erzeugung eines Blockchainverfahrens mit geringem Energieverbrauch durch den geringem Rechenauf- wand des Konsens- und Blockbildungsmechanismus auf Basis des Proof of Authority - Prinzips.

Zudem ermöglicht die Erfindung die Erzeugung und Verwendung von autarken und/oder privaten, vorzugseise dezentralen Netzwerken, vorzugsweise peer to peer Netzwerken mit Blockchaintechnologie, ausgebildet als Funknetz, insbesondere auf Ba- sis der 5G Technologie, als Alternative zum kabelgebundenem Festnetz, vorzugsweise ohne eine Verbindung, insbesondere ohne Kabelverbindung und/oder Funkverbindung, zu einem bestehenden öffentlichen Netz, insbesondere zum Internet (World Wide Web, WWW) und/oder insbesondere mit Ausschluss eines Single Point of Failure und/oder eines Single Point of Control und/oder

Desweiteren dient die Erfindung zur Erzeugung eines computergestützten zentralen und/oder dezentralen Steuerungsprinzipes mit einer Steuerungsfunktion (lb), insbeson- dere zur digitalen Vernetzung und/oder Verknüpfung und/oder Kommunikation, ins- besondere zur zumindest teilweise automatisiert und/oder autonom abfolgenden Steue- rung (lb), insbesondere Fernsteuerung (lb) und/oder Selbststeuerung (lb) und/oder Ansteuerung (lb) und/oder Regelung und/oder Kontrolle (lb) von Prozessen und/oder Vorrichtungen und/oder Vorrichtungssystemen, insbesondere als alternative N2X- (Network to Everything) und/oder N2M - (Network to Machine) und/oder N2V- (Net- work to Vehicle) und/oder N2I- ( Network to Infrastructure) und/oder N2R- (Network to Road) und/oder N2P- (Network to pedestrian) und/oder N2H- (Network to Home) Steuerung und/oder -Kommunikation, vorzugsweise für Internet of Things (IoT) An- wendungen.

Insbesondere zeigt die Erfindung technische Massnahmen auf zur Verbesserung der Effizienz, insbesondere der Energie-, Umwelt- und/oder Struktureffizienz, von öffentli- chen Verkehrssystemen, insbesondere des öffentlichen Nahverkehrs und/oder des Schienenverkehrs und/oder zur Verkehrsentlastung von Städten und/oder zur Verkehrs- lenkung (8) und/oder-steuerung (8) des Individualverkehrs. Zudem kann die Erfindung zur computergestützten, zumindest teilweise automatisiert und/oder autonom abfolgenden, alternativen N2X und/oder N2V Verkehrssteuerung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder -telematik, insbesondere als Al- ternative zu den Risiken und Gefahren des autonomen Fahrens und einer V2X (Vehicle to everything) und oder C-V2X (Cellular Vehicle to everything) Steuerung nach dem derzeitigen Stand der Technik, vorzugsweise mit Ausschluss starker KI, insbesondere von Deep Learning Systemen und/oder Deep Learning Algorithmen, verwendet wer- den.

Desweitem betrifft die Erfindung ein elektrisch angesteuertes Anzeigeelement (2) zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit dem integrierten elektronischen Element (E), wobei das Anzeigeelement (2) eine Dicke von 0,3 bis 4,5 mm aufweist und/oder das in dem Anzeigeelement (2) integrierte elektronische Element (E) eine maximale Dicke von 1 mm aufweist.

Schließlich betrifft die vorliegende Erfindung ein Verfahren zur Herstellung eines elek- trisch angesteuerten Anzeigeelementes (2) und/oder des elektronisches Elementes (E).

Es folgt eine detaillierte Beschreibung der technischen Idee der Erfindung als zusam- menhängender Text, wobei der Text zur besseren Übersicht und Erfassung in einzelne Textböcke aufgeliedert ist:

Verwendung eines elektronischen Elementes (E) mit wenigstens einer Prozessor- und Speicherfunktion (27b) und/oder einer Originalkennung und/oder einem Originalken- nungselement, vorzugsweise bestehend aus mindestens einem Hardwarelement (27) und/oder einer Software (26) und/oder APP Anwendung (26), insbesondere zur digita- len Kommunikation (8a) und/oder zum Datenaustausch (8b) und/oder zum Daten- streaming (8b) zwischen wenigstens zwei elektronischen Elementen (E), insbesondere wobei das elektronische Element (E) und/oder die Originalkennung we- nigstens eine einmalige Originalkennung für einen Nutzer (7) und/oder für eine Nutz- anwendung (7a) und/oder für eine Entität (7a) enthält, vorzugsweise wobei das Hard- wareelement (27) die Originalkennung und/oder gespeicherte digitale Daten der Origi- nalkennung enthält und/oder erzeugt und/oder verarbeitet und/oder insbesondere wobei die Originalkennung wenigstens, das vorzugsweise physische, Originalkennungsele- ment aufweist und/oder das Originalkennungselement zur Erzeugung der digitalen Da- ten verwendet wird, vorzugsweise wobei die Originalkennung aus dem Originalken- nungselement mittels eines spezifischen und/oder biometrischen Bildscans erzeugt wird und/oder als ein, vorzugsweise physisches, Originalkennungselement enthalten ist, vor- zugsweise wobei die digitalen Daten durch die quantitative und/oder qualitative digitale Erfassung, vorzugsweise durch Messung von in dem Originalkennungselement enthal- tenen Informationen und/oder Eigenschaften, insbesondere zur Authentifizierung des Nutzers (7) und/oder der Nutzanwendung (7a) und/oder der Entität (7a), erzeugt wer- den, für ein Element (le), vorzugsweise zur Verwendung als ein Rechner- (6) und/oder Computerelement (6) und/oder als ein Vorrichtungs- (2a) und/oder Bauteilelement (2a), vorzugsweise Anzeige- (2) und/oder Fahrzeug- (10) und/oder Roboter- (9) und/oder Fortbewegungsmittel- (10) und/oder Elektrogeräte- (2b) und/oder Mobiltelefon- (2b) und/oder Smartphone-(2b) und/oder Satellitentelefon (2b)- und/oder Mess- (2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Datenverarbeitungseinrichtungs- (2b) und/oder Nutzanwendungselement (7a), insbesondere mit wenigstens einer Identifikations- (lc) und/oder Authentifizierungs- funktion (lc) mittels wenigstens eines computergestützten, zumindest teilweise automa- tisiert und/oder autonom abfolgenden, verschlüsselten Verfahrens (14e) mit wenigstens einem Verschlüsselungscode (28) und/oder einem ID - Code ( Identity, Identitätscode) (28c) für wenigstens einen Nutzer (7) und/oder eine Nutzanwendung (7a) und/oder eine Entität (7a) vorzugsweise in einem digitalen Netz (12), vorzugsweise einem öffentli- chem digitalen Netz, insbesondere dem Internet und/oder dem World Wide Web, insbe- sondere zur gegenseitigen Authentifizierung einer Mehrzahl von Nutzem (7) und/oder Nutzanwendungen (7a) und/oder Entitäten (7a), und/oder insbesondere mit einer computergestützten, zumindest teilweise automatisiert und/oder autonom abfolgenden Steuerungs- (lb) und/oder Regelungs- (lb) und/oder Mess- (lb) und/oder Sensorfunktion (lb), wobei das elektronische Element (E) und/oder das Hardwareelement (27) wenigstens eine elektronische Schaltung, vorzugs- weise wenigstens einen integrierten Schaltkreis (IC, Integrated Circuit), vorzugsweise in wenigstens einem Chip (27c) und/oder Chipelement (27c), enthält, und/oder insbe- sondere aus wenigstens einer auswechselbaren physischen Chipkarte (27c) und/oder Speicherkarte (27c) und/oder einer eingebauten physisch nicht auswechselbaren Chip- karte (27c) und/oder Speicherkarte (27c) und/oder einem chipkarten- und/oder spei- cherkartenidentischen Funktion aufweisendem Element (27c) besteht, insbesondere ausgebildet als All-In-Element/-Modul/-Smartcard (Omnicard,0) und/oder als wenig- stens eine SIM Karte (la) (Subsriber Identitity Module) und/oder USIM Karte (la) (Universal Subsriber Identitity Module) und/oder embedded SIM (la) (eSIM) und/oder SIM- kartenidentische Funktion aufweisendem Element (la), vorzugsweise mit UICC- Hardwareelement(la) (Universal Integrated Circuit Card) und/oder mit SIM und/oder USIM - Software Anwendung (la) und/oder mit integrierter NFC-Funktion (la) und/oder NFC Hardwareelement (la) ( Near Field Communication), wobei die digitale Kommunikation (8a) und/oder der Datenaustausch (8b) und/oder das Datenstreaming (8b) vorzugsweise auf technischer Basis elektromagnetischer Wellen, insbesondere Radio- und/oder Mikro- und/oder Ultraschall- und/oder Lichtwellen und/oder - impulsen arbeitet, vorzugsweise wobei das digitale Netz (12) aus einem Ka- bel- und/oder Funk (lo) - und/oder Licht- und/oder Infrarot- und/oder Ultraschallnetz besteht, vorzugsweise über eine Funkverbindung (lp) auf Basis einer G - Frequenz Funkverbindung (lp), vorzugsweise auf technologischer Basis von 3G und/oder 4G und/oder 5G und/oder 6G und/oder einer Mobilfunkverbindung (lp) und/oder Satelli- tenverbindung (lp) und/oder auf technischer Basis einer Bluetooth- (B) und/oder BLE- (B) und/oder Bluetosec- (B) und/oder NFC- (B) und/oder RFID- (B) und/oder WLAN- (B) und/oder WIFI- (B) und /oder LiFi- (B) und/oder Infrarotverbindung (B) besteht, insbesondere wobei die Kanalbandbreite der Funkverbindung (lp) im Bereich von 1 Hz bis 99 MHz und/oder 100 MHz (Megahertz) bis 100 GHz ( Gigahertz) und/oder von 100 GHz bis 1000 Ghz liegt, vorzugsweise bei 800 MHz bis 30 GHz, insbesondere bei 3 GHz bis 6 GHz, vorzugsweise wobei das elektronische Element (E) und/oder das Hardwarelement (27) und/oder das Element (le) wenigstens Hardwaremodul (27a), vorzugsweise ein Funk-

(23) und/oder Sender- (23) und/oder Empfänger- (23) und/oder Antennen- (23) und/oder Frequenz- (23) und/oder Ortungs- (23) und/oder Anzeige- (15) und/oder Touchscreen- (15) und/oder Tastatur- (15) und/oder Kamera- (15) und/oder Videoka- mera- (16) und/oder Wärmebildkamera- (20) und/oder Scanner- (17) und/oder Infrarot- licht- (19) und/oder Lautsprecher- (21) und/oder Mikrofon- (22) und/oder Lidar-/Ladar-

(24) und/oder Ultraschallsensor- (24) und/oder Aktoren- (24) und/oder Laser- (24) und/oder Radar- (24) und/oder Konnektivitäts- (24) und/oder Telemetrie- (24) und/oder Telematik-(24) und/oder Steuerungs- (6b) und/oder Regelungs- (6b) und/oder Mess- (6b) und/oder Datenerfassungseinrichtungs- (6b) und/oder Datenverarbeitungseinrich- tungs- (6b) und/oder Sensormodul (18) enthält, vorzugsweise wobei das elektronische Element eine digitale Verknüpfung (lj) mit einer IT- Infrastruktur (11) (Information Technology) und/oder Computercloud (13a) über ein Rechnemetz aufweist, insbesondere wobei das elektronische Element (E) und/oder die die IT Infrastruktur (11) und/oder das digitale Netz (12) wenigstens das verschlüs- selte Verfahren (14e) und/oder ein verschlüsseltes Buchführungssystem (14), insbeson- dere ein Blockchainverfahren (14a), aufweist, insbesondere wobei wenigstens eines der Hardwaremodule (27a), vorzugsweise vor- zugsweise das Kamera- (15) und/oder das Scanner- (17) und/oder das Sensor- (18) und/oder das Infrarotlicht- (19) und/oder das digitale Mess- (6b) und/oder Datenerfas- sungseinrichtungs- (6b) und/oder Datenverarbeitungseinrichtungsmodul (6b) und/oder ein digital verbundenes und/oder verbindbares Mess- (2b) und/oder Datenerfassungs- einrichtungs- (2b) und/oder Datenverarbeitungseinrichtungselement (2b) zur Erkennung und/oder Erfassung und/oder Verarbeitung von quantitativen und/oder qualitativen In- formationen und/oder Eigenschaften, insbesondere zur Erzeugung der digitalen Daten des Originalerkennungselementes vorgesehen ist, wobei die Software (26) und/oder APP Anwendung (26) eine computergestützte An- wendung, insbesondere ein Programmmittel zur Bilderkennung (26a), insbesondere Bilderkennungssoftware, vorzugsweise zur Erkennung des biometrischen und/oder spe- zifischen Bildscans enthält, wobei das elektronische Element (E) den Verschlüsselungs- code (28) aufweist und/oder mit dem Verschlüsselungscode (28) digital verknüpft ist, insbesondere wobei der Verschlüsselungscode (28) in der IT -Infrastruktur (11), vor- zugsweise bei einer autorisierten Prüfeinrichtung und/oder autorisierten Behörde, ge- speichert ist, insbesondere wobei der Verschlüsselungscode (28) mit dem einmaligen, persönlichen ID - Code des Nutzers (7) digital verknüpft ist, vorzugsweise wobei der Verschlüsselungscode (28) wenigstens einen Schlüssel und/oder ein digital verknüpftes Schlüsselpaar aufweist, insbesondere wobei ein Schlüssel die Originalkennung und/oder die gespeicherten digitalen Daten der Original- kennung, insbesondere des physischen Originalkennungselementes, vorzugsweise die digitalen Daten des spezifischen und/oder biometrischen Bildscans enthält, insbesonde- re wobei ein Iris- und/oder Fingerabdruck- und/oder Gesichtscan zur Authentifizierung und Identifizierung in der IT-Infrastruktur (11) vorgesehen ist, vorzugsweise wobei zur Identifizierung und Authentifizierung des Bildscans eine automatisierte, digitale Ver- knüpfung des elektronischen Elementes des Nutzers (7) mit der IT Infrastruktur herge- stellt wird, vorzugsweise wobei die digitalen Bilddaten des Bildscans einen sekunden- genauen Zeitstempel aufweisen, insbesondere wobei die übertragenen Daten mit den gespeicherten digitalen Daten der Originalkennung (Stammbild Daten) durch die Bil- derkennungssoftware verglichen werden, vorzugsweise wobei die erzeugten digitalen Daten des elektronischen Elementes (E) in der IT- Infrastruktur (11) gespeichert sind oder werden, insbesondere ohne dass diese auf einem lokalen Rechner eines Nutzers (7) installiert und/oder gespeichert sind, wobei das für das verschlüsselte Verfahren (14e) verschiedene Möglichkeiten der Abfolge der Verfahrenschritte vorgesehen sind und/oder vorzugsweise wobei das elektronische Element (E) wenigstens ein computergestütztes Verfahren, zur zumindest teilweise automatisiert und/oder autonom abfolgenden Steue- rung (lb), insbesondere Fernsteuerung (lb) und/oder Selbststeuerung (lb) und/oder Ansteuerung (lb) und/oder Regelung und/oder Kontrolle (lb) eines und/oder einer Mehrzahl von Fahrzeugen (10) und/oder Robotern (9) und/oder Fortbewegungsmitteln (10) und/oder Elektrogeräten (2b) und/oder Nutzanwendungen (7a) und/oder Anzeigen (2) enthält, insbesondere mittels wenigstens eines Hardwaremoduls (27a), vorzugsweise des Steuerungs- (6b) und/oder Regelungs- (6b) und/oder Mess- (6b) und/oder Datener- fassungs- (6b) und/oder Datenverarbeitungseinrichtungs- (6b) und/oder Telemetrie- (24) und/oder Telematik-(24) und/oder Sensormoduls (18), wobei die Ansteuerung (lb) des elektronischen Elementes (E) von einem entfernten Ort, vorzugsweise über eine drahtlose Verbindung (ln), von wenigstens einem externen, wenigstens ein elektroni- sches Element (E) aufweisendem Rechner/Computer (6b), insbesondere eines zentralen und/oder dezentralen Kontrollzentrums (7b), erfolgt, insbesondere zur Verkehrssteue- rung (8) und/oder -regelung (8) und/oder -lenkung (8) und/oder -telematik (8), wobei das elektronische Element (E) zur Veränderung und/oder Verbesserung und/oder Gewährleistung von funktionell technischen, insbesondere digitalen, Eigenschaften und/oder Funktionen des Elementes (le) und/oder des Hardwarelementes (27) und/oder wenigstens eines der Hardwaremodule (27a) und/oder der Software (26) und/oder der APP Anwendung (26) und/oder der Identifikations- (lc) und/oder Authentifizierungs- funktion (lc) und/oder der Steuerungs- (lb) und/oder der Regelungs- (lb) und/oder der Mess- (lb) und/oder der Sensorfunktion (lb) und/oder des digitalen Netzes (12) und/oder des Rechnemetzes und/oder der IT- Infrastruktur (11) und/oder der drahtlosen Verbindung (ln) und/oder des Funknetzes (lo) und/oder der Computercloud (13a) und/oder des verschlüsselten Buchführungssystems (14) und/oder des verschlüsselten Verfahrens (14e) und/oder des Blockchainverfahrens (14a) und/oder des Rechner- und/oder Computerelementes (6) und/oder des Vorrichtungs- und/oder Bauteilei emen- tes (2a) und/oder des Fahrzeug- (10) und/oder des Roboter- (9) und/oder des Fortbewe- gungsmittel- (10), und/oder des Elektrogeräte- (2b) und/oder des Mobiltelefon- (2b) und/oder des Smartphone-(2b) und/oder Satellitentelefon (2b)- und/oder Mess- (2b) und/oder Datenerfassungseinrichtungs- (2b) und/oder Datenverarbeitungseinrichtungs- (2b) und/oder des Nutzanwendungs- (7a) und/oder des Anzeigeelementes (2) vorgese- hen ist und/oder elektrisch angesteuertes Anzeigeelement (2) zur optischen Signalisierung von veränder- lichen Informationen wie Zeichen oder Bildern mit dem integrierten elektronischen Element (E), wobei das Anzeigeelement (2) eine Dicke von 0,3 bis 4,5 mm aufweist und/oder das in dem Anzeigeelement (2) integrierte elektronische Element (E) eine ma- ximale Dicke von 1 mm aufweist.

Unter einem Nutzer (7) wird insbesondere ein Teilnehmer eines digitalen Netzes und/oder Funknetzes verstanden. Unter einer Nutzanwendung (7a) wird im wesentli- chen eine Vorrichtung und/oder Maschine und/oder Einrichtung und/oder Gerät ver- standen, das von einem Nutzer benutzt und/oder verwendet wird und/oder gesteuert wird. Unter einer Entität (7a) wird etwas Seiendes verstanden z.B. ein Ding und/oder eine Sache und/oder ein Organismus und/oder ein Lebewesen und/oder etwas Existie- rendes. Jeder Nutzer besitzt einen einmaligen ID-Code. Jede Nutzanwendung besitzt auch einen eigenen ID-Code, der mit der Geräte und/oder Fahrgestellnummer verknüpft ist.

Jeder Nutzer und jede Nutzanwendung besitzt sein einmaliges elektronisches Element (E) mit der einmaligen, (persönlichen) Originalkennung, die mit dem ID-Code des Nutzers oder mit dem ID-Code der Nutzanwendung digital verknüpft ist. Der Nutzer überträgt beim Kauf einer Nutzanwendung, etwa eines Gerätes, die Gerätekennnumer und/oder Fahrgestellnummer auf sein elektronisches Element und besitzt damit die al- leinige Zugriffsberechtigung für diese Nutzanwendung Als Besitzer kann der Nutzer weitere Zugriffsberechtigungen vergeben, die auf die persönlichen elektronischen Ele- mente der anderen Nutzer übertragen werden. Bei Verkauf des Gerätes wird die Zu- griffsberechtigung auf einen neuen Nutzer übertragen und die alten Besitzerdaten ge- löscht. Jede Nutzanwendung besitzt dabei eine Chipkarte mit dem elektronischen Ele- ment, die nach Übertragung der Zugriffsberechtigung auf den Nutzer, nur den Zugriff des autorisierten Nutzers zulässt.

Aufgabe der Erfindung, Stand der Technik

Die zunehmende Digitalisierung von Informationen, wie die von Zeichen und Bildern fuhrt zwangsläufig dazu, dass Informationen heutzutage bevorzugt auf mobilen Smart- phones, Notebooks, Pads, E-books, TV Flachbildschirmen etc. direkt visuell auf dem Bildschirm abgerufen werden Es ist kaum noch erforderlich oder notwendig einen phy- sischen Ausdruck der Bild- und/oder Zeicheninformation durch Ausdrucken z.B. auf Papier oder Folienmaterial zu erzeugen. Die Informationen sind durch Speicherung je- derzeit, schnell und platzsparend auf dem Bildschirm zugänglich und visuell erfassbar.

Es gibt mittlerweile eine Fülle von Anwendungen für digitalen Bildschirme / Displays wie z.B. elektronische Tickets, E-Books, Moderations-, Präsentationsstexte, digitale Werbetafeln (Stadionwerbung) Verkehrs und Anzeigetafeln, 3 D Brillen und virtuelle Simulationen, Computerspiele, Augmented Reality, etc.

Durch die stetig wachsende Verbreitung von Rechnern und Bildschirmen in allen Le- bensbereichen findet eine zunehmende Virtualisierung von Informationen statt, gewis- sermassen als Ersatz für physische, erlebbare materielle Informationen.

Die Akzeptanz und der Konsum von virtuellen Produkten, die rein auf digitalen Zei- chen und Bildern basieren, ist vor allem bei den„Digital Natives“, die neue virtuelle Normalität und Selbstverständlichkeit. Es hat eine gesellschaftliche Veränderung, d.h. ein kultureller Wandel im Umgang und der Wahrnehmung und Verarbeitung von In- formationen stattgefunden von der materiellen, analogen hin zur künstlich, virtuellen Information. Diese Entwicklung wird sich in den nächsten 30 Jahren dramatisch fortsetzen. Durch Künstliche Intelligenz basierend Algorithmen von Quantencomputern werden bahnbre- chende Fortschritte in allen Lebensbereichen erreicht werden.

Fraglich bleibt allerdings welche Folgen diese Entwicklung für den menschlichen Kör- per und Geist haben wird und welche seelisch -psychischen Auswirkungen damit ver- bunden sind. Da der Mensch, ein natürlicher Organismus ist, geprägt durch die vielen Jahrtausende der Erdgeschichte, bleibt abzuwarten, ob Ihm dieser virtuelle Wandel oh- ne negative, schädliche Nebenwirkungen gelingt.

Aufgabe dieser Erfindung ist es neue Anwendungsbereiche für den Einsatz von Bild- schirmen/ Displays vorzuschlagen und hierfür eine technische Lösung anzubieten, die in vielen Lebensbereichen zu nützlichen und hilfreichen Neurungen 12führt. Die Erfin- dung zeigt auf, wie Bildschirmdisplays in sehr dünner Bauweise hergestellt werden können und durch die drahtlose Ansteuerung mittels eines externen Rechners /Computers von einem anderen Ort bedient werden können. Hierdurch werden gänzlich neue Anwendungsfelder möglich werden, die nach dem derzeitigen Stand der Technik noch nicht existieren, wie z.B. ein digitales KFZ Kennzeichen, das vom Strassenver- kehrsamt gesteuert und kontrolliert wird oder beispielsweise eine Möbeloberfläche, ausgebildet als Bildschirmdisplay mit virtuellen Holzdekoren, die vom Smartphone aus gesteuert werden.

Der derzeitige Stand der Technik bei Smartphones weist im Minimum eine Gesamtdik- ke, das heisst Gehäuseaussenmaß, von 4.6 mm auf. Laut der Computerzeitschrift Chip vom 19.3.2017 ist dies das Smartphone- Produkt: Carbon Mobile. Das heißt die bauli- che Anordnung von Speicher und Prozessor und eines Akkumulaors / Batterie und des Bildschirmdisplays nach dem derzeitigen Stand der Technik erfordern diese Bauhöhe. Dünnere Smartphones oder E Pads gibt es zum Zeitpunkt dieser Patent- Anmeldung nicht auf dem Markt. Weiterhin ist es Stand der Technik bei Bildschirmen, wie z.B. bei Smartphones, E- Pads und Flachbildschirmen, das die Ansteuerung des Bildschirms über den intern eingebau- ten Rechner / Computer erfolgt.

Der Grundgedanke der Erfindung ist es nun ein elektrisch angesteuertes Anzei- geelement zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit einem integrierten elektronischen Element mit Prozessor- und Spei- cherfunktion zu verwenden, dadurch gekennzeichnet, dass die Ansteuerung über eine drahtlose Verbindung von einem externen Rechner / Computer erfolgt und das Anzei- geelement eine Dicke, das heißt Gehäuseaußenmass, von 0,3 bis 4,5 mm aufweist, wobei das elektronische Element eine maximale Dicke von 1 mm aufweist.

Das elektronische Element besteht dabei aus mindestens einem Hardwarelement und/ oder einer Software und / oder App Anwendung.

Weiterhin besteht das elektronische Element aus einer auswechselbaren physischen Chipkarte und / oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder aus einem chipkartenidentischen Funktion aufweisendem Element.

Die Neuheit der Erfindung liegt darin, das elektrisch angesteuerte Anzeigeelement über eine drahtlose Verbindung von einem externen Computer/ Rechner anzusteuem um aus der Feme, veränderliche Informationen wie Zeichen oder Bilder auf einem Bildschirm an einem anderen Ort zu übertragen und anzuzeigen. Zudem schlägt die Erfindung vor dass, dass Anzeigeelement sehr dünn ausgebildet wird, mit einer Stärke von 0,3 - 4,5 mm.

Die drahtlose Verbindung kann dabei aus einem Funk- und /oder Licht- (LiFi) und / oder Ultraschallnetz bestehen.

Diese dünne Ausfuhrungsform wird erfindungsgemäß dadurch ermöglicht, dass ein elektronisches Element mit Prozessor und Speicherfunktion, verwendet wird, in mi- nituarisierter Bauform in einer maximalen Dicke von nur 1 mm. Das elektronische Element weist weiterhin eine Identifikations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz auf.

Die drahtlose Verbindung erfolgt vorzugsweise über eine Funkverbindung auf Basis ei- ner G - Frequenz Funkverbindung, vorzugsweise auf Basis von 3G und / oder 4 G und /oder 5G und / oder einer Mobilfunkverbindung und /oder auf Basis einer Bluetooth-, und /oder WLAN-,und /oder WIFI- und / oder LiFi und /oder Satelliten- Verbindung( GPS) .

Die Kanalbandbreite der Funkverbindung liegt dabei im Bereich von 100 MHZ bis 100 GHZ liegt, vorzugsweise bei 800MHZ - 30GHZ, insbesondere bei 3 GHZ bis 6GHZ.

Das Elektronische Element ist z.B. eine vorkonfigurierte 3G oder 4G. oder 5 G Simkarte, die sich beim Einschalten automatisch über Funkverbindung zur Ansteuerung des Anzeigeelementes, sprich Bildschirmdisplays, mit dem externen Rechner, z.B. ei- nem Smartphone verbindet, und sofort betriebsbereit ist. Dabei enthält jedes Anzei- geelement , beispielsweise eine 3 G Simkarte mit einen eindeutigen, Verbindungscode, dem sog. Association Token : Beispiel 8 -stelliger Zeichen Code: z.B. AC11 -GE4S-P3 , der nur für dieses eine Anzeigeelement existiert. Optional kann dem Anzeigeelement auch eine eigene E- mail Adresse zugewiesen werden Die 3G Simkarte funktioniert z.B. international in über 100 Ländern und weist auch eine GPS Funktion auf.

Das elektronische Element weist vorzugsweise maximal ein Format von

85,6 mm x 54 mm aufweist, insbesondere ein Format 25 mm x 15 mm und /oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm auf.

Weiterhin hat das elektronische Element vorzugsweise eine Dicke von maximal 1 mm , vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder 0,67 mm und hat vorzugsweise eine Speicherkapazität von mindestens 128 Giga- byte. Das Anzeigeelement und /oder Hardwareelement weist mindestens eine Kamera- und /oder Videokamera- und/ oder Scanfunktion und /oder Sensorfunktion und / oder Infra- rotlichtfunktion und / oder Lautsprecherfunktion und/ oder Mikrofonfunktion und / oder Soundkarte auf.

Die Sensorfunktion erfasst physikalische, chemische und stoffliche Eigenschaften quan- titativ oder qualitativ , vorzugsweise mit Messfunktion für Temperatur, Wärmemenge, Feuchtigkeit, Druck, Gewicht, Abstandsmessung, Regensensor, Schall, Helligkeit, Be- schleunigung, PH-Wert, Ionenstärke, elektroschemisches Potential und /oder die stoffli- che Beschaffenheit qualitativ erfasst.

Die elektrisch angesteuerte Anzeige besteht aus einem Bildschirm und /oder Screen und /oder Display, insbesondere Smart Display, und / oder Monitor und /oder Touchs- reen Oberfläche oder aus einer projezierten Oberfläche.

Die Darstellungstechnik der elektrisch gesteuerten Anzeige wird dabei vorzugsweise auf technologischer Basis von Light Emitting Diodes ( LED) Feldemmisionsbildschirm ( FED) und / oder Flüssigkristallbidschirm ( LCD) und /oder Dünnschichttransistorbild- schirm (TFT -LCD) und / oder Kathodenstrahlröhrenbildschirm( CRT) Und /oder Plas- mabildschirm und / oder organische Leuchtdiode ( OLED) , SOLED oder SMOLED - Folien Displays, PLED, AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ ,und /oder Surface Conduction Electron-emitter Display ( SED) und (oder QLED und / oder Micro LED (mikroskopische Leuchtdioden und /oder HDR ( High Dynamic Range) und /oder elektronischer Tinte und/ oder E-Paper erzeugt.

Eine weitere Ausführungsform ist es, dass die Darstellungstechnik der elektrisch ge- steuerten Anzeige vorzugsweise auf technologischer Basis von Micro LED Pixeln, vor- zugsweise mit einer Auflösung von mindestens 7680 x4320 Bildpunkten und

/oder und / oder elektronischer Tinte erzeugt wird, Um eine möglichst dünne Ausführung zu erzeugen, wird ein Foliendisplay auf Basis ei- ner Folie, insbesondere auf Basis petrochemischer und /oder biopolymeren Kunststoffe und /oder organischer Stoffe verwendet wird, wobei die Folie eine Stärke von vorzugs- weise 20 bis 1000 mm aufweist, insbesondere 20 bis 100 mm.

Bei einer weiteren Ausführungsform weist die Folie eine gedruckte Elektronik auf.

Die Stromversorgung des elektrisch gesteuerten Anzeigeelementes erfolgt vorzugswei- se drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und/oder Induktionsstroms und /oder durch Funkstrom, wobei der Akkumulator eine maximale Dicke von 0,3 bis 4,5 mm aufweist.

Bezüglich der Gestaltung und Formgebung des Anzeigeelementes ist vorgesehen, das ein Bildschirmdisplay dreidimensionale Verformungen aufweisen kann, und insbeson- dere rollbar und/ oder faltbar ist.

Wobei die äussere Form des Anzeigeelementes vorzugsweise auf Basis geometrischer und / freier Formen gestaltet ist, vorzugsweise aus Rechteck-, Quadrat-, Kreis-, Ellip- sen-, Dreieck-, Vieleck-, Parabel-, Freiform- Elementen und deren Kombinationsmög- lichkeiten.

Bei den folgenden Ausführungsformen der Erfindung wird zur Herstellung des elek- trisch angesteuerten Anzeigeelementes, die Verwendung von Metallbeschichtungen, sowie funktionellen Folien vorgeschlagen insbesondere zur Herstellung von Halbleiter- elektronik- und Mikrotechnikelementen.

Die hier vorgeschlagenen Herstellungsarten und -Verfahren und Ausführungsformen, sind besonders wirtschaftlich in grossen Mengen produzierbar.

Durch Metallbeschichtung einer Folie oder auch Trägerfolie können zum Beispiel elek- trische Leiterbahnen hergestellt werden. Hierzu kann die Metalllbeschichtung und / oder die die Trägerfolie sowohl vollflächig als auch teilflächig vorgesehen werden. Da- bei kann es vorteilhaft sein mehrere Ebenen, d.h. als Verbundschicht, mit metallisierten Folien übereinander anzuordnen, um unterschiedliche elektronische Schaltkreise zu rea- lisieren, mit denen zum Beispiel miniaturisierte LED oder OLED Leuchten oder auch Folienlautsprecher betrieben werden, die ebenfalls in die Verbundschicht integriert werden können, z.B. in Form von funktionellen Folie/n.

Ebenso kann die Metallbeschichtung zur Herstellung von miniaturisierten, elektroni- schen Schaltungen eingesetzt werden, insbesondere integrierten Schaltungen, in Form und auf Basis von funktionellen Folie/n.

Dabei können auch Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Folien in Dünnschichttechnik (z.B. durch PVD, CVD, OPVD (organi- sche Gasphasenabscheidung) Verfahren oder auch durch klassische Drucktechniken (InkJet, Siebdruck, Mikrokontakt- Stempeldruck mit metallischem Material) aufge- bracht werden, oder auch durch Rotationsbeschichtung.

Ebenso lassen sich integrierte optoelektronische Systeme dadurch herstellen, wie z.B.Aktoren ( Sender) und Dedektoren ( Empfänger) oder auch Optosensoren, Opto- koppler oder optische Modulatoren, wie z.B. Fotowiderstand, Photodiode (auch Solar- zelle) und Fototransistor, Lichtsensoren.

Für die metallische Schicht wird bei den vorgenannten Beispielen aus der Mikro- und Optoelektronik vorzugsweise das Halbmetall Silicium (Si) oder Germanium (Ge) oder siliciumhaltige Verbindungen eingesetzt, insbesondere Halbleitersilizium oder Solarsi- lizium. Oder vorzugsweise in der Optoelektronik auch leitfähige Beschichtungen aus TCOs (engl transparent conductive oxides), wie z.B. aus Indium-Zinn-Oxid Nanoparti- keln (engl indium tin oxide, ITO). Diese haben den Vorteil transparent zu sein und können auch flexibel ausgefuhrt werden, und können als Elektroden in optoelektroni- schen Anwendungen, wie z.B. Flachbildschirmen, Touchsreens, Displays, insbesondere flexiblen Displays, organische Leuchtdioden, Elekrolumineszenzlampen oder auch bei Bauteilen aus der Solartechnik eingesetzt werden. Erfindungsgemäß können damit z.B. Displayfolien, für programmiebare Oberflächen hergestellt werden, d.h. das Oberflächendekor z.B. eines Möbels, Fußbodens oder Wandfläche wird als digital/ virtuelles Holz-/ Stein oder Fantasiedekor gezeigt, mit der Möglichkeit z.B. Licht/ Beleuchtung - / Bewegungs-/ Informations - / und Soundeffekte frei zu inszenieren.

Erfindungsgemäß kann dazu z.B. ein OLED (organic light emitting diode) oder insbe- sondere PLED ( polymer light emitting diode) Foliendisplay eingesetzt werden, auf Ba- sis einer Kunsstoffolie mit einer Stärke von vorzugsweise 20 bis 500 mm, auf die Schaltkreise aufgedruckt werden unter Verwendung von Dünnfilmtransistoren.

Auch die Verwendung von SOLED oder SMOLED -Folien Displays ist hier möglich, wie die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeichnet werden. Es kann darüberhinaus auch AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ Technologie eingesetzt werden.

Bei den o.a. OLED -Technologien wird unter anderem das Prinzip der Lumineszenz genutzt, selbstleuchtende Bildschirme herzustellen, die die insbesondere auf organi- scher Elektrolumineszenz basieren. Erfindungsgemäß werden hier metallorganische Komplexe bzw. Substanzen in die Verbundschicht (B) eingebracht, unter Verwendung einer Polymer Trägerschicht (T), als teilweise oder vollflächige Schicht aus metalli- schem Material.

Für die Beschichtung werden hier vorzugsweise Polymerfolien aus Polyethylen- terephthalat (PET) und Polyethylennaphthalat(PEN), Polycarbonat (PC), Polyethersul- fon (PES) und Polyimid (PI) verwendet als flexibles Substratmaterial für flexible trans- parente Elektroden. Die Indium-Zinn-Oxid Nanopartikel werden durch voll oder teilflä- chige PVD oder CVD Beschichtung hergestellt. Dazu werden Strukturierungs- und Maskierungsvorgänge beim Beschichten notwendig. Die Verwendung nasschemischer Druckverfahren zur ITO -Be Schichtung ist ein alterna- tives, sehr wirtschaftliches Verfahren und kann sowohl über die Sol -Gel- Methode als auch mittels ITO Nanopartikel Dispersion erfolgen. Weitere damit verbundene mikro- elektronische und optoelektronische Anwendungen : RFID-Tags/ Chips, Solarzellen, Sensoren, Brenstoffzellen, Elektrolytkondensatoren , Lithium- Polymerakkus.

Erfindungsgemäß werden als Substratmaterial die unter 3a. aufgefiihrten Kunststoffma- terialien als Trägerfolie für die Metallisierung eingesetzt.

Vorzugsweise werden folgende Metalle / Halbmetalle ( z.B. Alkalimetalle ) bzw. Legie- rungen und Kombinationen dieser Metalle und chemische Verbindungen, wie z.B. polymere Verbindungen mit diesen Metallen, als elektrische Leiter im Bereich Mi- kro- und Optoelektronik eingesetzt: Bor ( B), Barium (Ba) Cadmium (Cd), Cobalt (Co) Caesium (Cs) Silicium (Si), Germanium ( Ge), Arsen (As), Selen ( Se), Antimon (Sb), Tellur (Te), Polonium (Po), Zinn (Sn) Asiat (At), Lithium (Li), Phosphor (P) Iod (I), Bismut (Bi) Zinn (Sn) Chemische Verbindungen wie z.B. Titandioxid (Ti02) Galli- umarsenid (GaAs) Galliumnitrid (GaN), Indiumantimonid (InSb) Zinkselenid (ZnSe) Cadmiumsulfid (CdS) wie Kupfer(II)-chlorid, Legierungen aus Calcium- Aluminium- Barium, Ruthenium- Magnesium-Silber, Lithiumfluorid, Caesiumfluorid, Aluminium- tris(8-hydroxychinolin), Alq3. und Transparent Conductive Oxides (TCOs), insbeson- dere Indium Tin Oxide ( ITO)

Die unter 3a beschriebenen Kunstofffolien und Kunstoffmaterialien können auch aus- gestattet und kombiniert werden mit elektrisch leitfähigen Polymeren.

(Polymerelektronik) Das sind elektronische Schaltungen aus elektrisch leitfähigen Po- lymeren, auf Trägermaterialien aus vorzugsweise organischen Folien, sowie mit Leiter- bahnen und Bauelementen aus leitfähigen organischen Molekülen( organische Halblei- ter) als Bestandteil der Verbundschicht (B). Das sind Polymere, (insbesondere auch or- ganische Halbleiter), die oxidativ oder reduktiv dotiert werden mit chemischen Metall / Halbmetal Verbindungen, wie z.B. Polyacetylen mit Arsenpentaflourid oder Iod. Weitere Beispiele für leitfähige Polymere sind dotiertes Polypyrrol, Polyphenylensul- fid, Polythiophen sowie metallorganische Komplexe mit makrocyclischen Liganden, wie Phthalocyanin.

Eine oxidative Dotierung erreicht man mit Arsenpentafluorid, Titantetrachlorid, Brom oder Iod, eine reduktive Dotierung dagegen mit Natrium-Kalium-Legierungen oder Di- lithiumbenzophenonat. Anwendungen aus der Polymerelektronik: Organische Leucht- diode, organische Solarzelle, organischer Feldeffekttransistor/ Dünnschichttransistor. Die Moleküle (neben Monomeren und Oligomeren vor allem Polymere) werden dabei in Form dünner Filme oder kleiner Volumen auf die Folien aufgedruckt, aufgeklebt oder anderweitig angebracht. Die Herstellung dieser Folien erfolgt durch vorzugsweise durch Dünnschichttechnik (z.B. durch PVD, CVD, OPVD (organische Gasphasenab- scheidung) Verfahren oder auch durch klassische Drucktechniken (Inkjet, Offsetdruck, Tiefdruck, Siebdruck, Mikrokontakt- oder auch durch Rotationsbeschichtung. Bevor- zugte Schichtstärken für mikro- opto- und elektronische leitfähige Beschichtungen, so- wie elektrisch leitfähige Polymere: 1 nm (Nanometer) bis 1 mm dick.

Bevorzugte Ausführungsform: Universelle Anwendungen

Die Verwendung des Anzeigeelementes ist dabei universell zur Verwendung als Vor- richtungs-, und /oder Bauteilelement vorgesehen, wobei die Verwendung vorzugsweise für ein Element zur Verwendung als ein Verpackungs-, Uhr- , Schmuck-, Kleidung-, Accessoires-, Fahrzeugkennzeichnungs-., Verkehrsschild-, Werbeschild-, Bilderrahmen- , Boden-, Wand-, Decken-, Möbel-, Dekorations-, Innenausbauelement, vorzugsweise Leisten-, Profil-, Kanten-, Tür- und /oder Fensterelement, Fassaden-, Tapeten-, Car- Interior-, Car-Exterior-, Haushaltsgeräte-, Elektrogeräte-, und /oder Outdoorbelagsele- ment.

Transparente, ein-oder mehrlagige obere Schicht (3)

Für den universellen Einsatz ist es in vielen Anwendungen vorteilhaft eine Schutz- schicht für das elektrisch angesteuerte Anzeigeelement vorzusehen, die das Anzei- geelement vor mechanischen Beanspruchungen schützt, d.h. vor Stoss-, Abrieb-, Kratz- Beanspruchung, sowie vor Feuchtigkeit und Schmutz.

Die folgenden Ausführungsformen zeigen auf welche Lösungen dafür erfindungsgemäß vorgesehen sind, wobei die Schutzschicht als transparente ein - oder mehrlagige Deck- schicht(3) ausgebildet wird.

Die transparente ein - oder mehrlagige Deckschicht(3) kann aus z.B. Kunststofffolie/n (3a) und / oder Oberflächenausrüstungen (3b) bestehen oder aus Kombinationen von (3a) und (3b). Zum Beispiel kann auch nur eine Oberflächenausrüstung (3b) vorgesehen werden ohne eine Kunststofffolie/n (3a) zu verwenden. Ebenso kann auch nur eine Kunststofffolie verwendet werden ohne Oberflächenausrüstung. Die Oberflächenausrü- stung( 3b) kann z.B. auch als äußere Schicht auf die Kunsstofffolie (3a) aufgebracht werden oder direkt auf die Schicht aus metallischem Material (1)

Die Kunststoffolien in der Definition dieser Erfindung können auch in Form von ge- schmolzenem Kunststoff, z.B. als geschmolzenes Polymer aufgetragen werden zur Bil- dung der transparenten ein- oder mehrlagigen obere Schicht, z.B. durch Kalandrieren oder Gießen. Dies hat den Vorteil, dass z.B. während der Kunststoff noch nicht ausge- härtet, ist eine Oberflächenstruktur z.B. mittels eines Prägekalanders in die Oberfläche geprägt werden kann, wie z.B. eine Holzpore.

Ebenso kann auch eine Oberflächen Struktur in eine Kunststofffolie geprägt werden, wenn die Kunststoffolie, vor dem Prägeprozess erhitzt wird und der Kunststoff an- schmilzt, so dass die Struktur in die noch nicht ausgehärtete Kunststoffoberfläche ge- prägt wird. Grundsätzlich können die Folien voll- oder teilflächig eingesetzt werden. In den meisten Anwendungsfallen ist es sinnvoll die transparente ein-oder mehrlagige obe- re Schicht vorzusehen, um eine gute Abrieb- und Kratzbeständigkeit zu gewährleisten. Bei weniger beanspruchten Flächen, wie z.B. Deckenverkleidungen kann auf diese Schicht auch verzichtet werden. Die in 3., 3a und 3b beschriebenen Schichten sind grundsätzlich auch geeignet für den Oberflächenschutz von metallisierten Textilen, Geweben oder Vliesen. (z.B. wässrige PU Beschichtung, oder Kaschieren, wie z.B. Flammkaschierung, Einstreuen von schmelzbaren, pulverisierten Kunststoffen und anschliessendes Aufschmelzen)

Kunststofffolien und / oder geschmolzenes Polymer (3a)

-Kunststoff als transparente Folie, bevorzugt elastische Folien

Die obere Schicht kann ein- oder mehrlagig aufgebaut sein. Der mehrlagige Aufbau ( zwei oder mehr Folien ) hat den Vorteil, dass jede Folie, und / oder auch aufge- schmolzene Polymerschicht, mit speziellen Leistungseigenschaften vorgesehen wer- den kann, je nach Einsatzzweck.

Dabei können für die einzelnen Folienschichten unterschiedliche Kunststoffe, und deren vorteilhafte Eigenschaften, miteinander kom- biniert werden. Grundsätzlich werden da- für Kunststoffe auf Basis synthetischer und/oder halbsynthetischer Polymere und / oder Biopolymere eingesetzt, wie z.B. Duroplaste und Thermoplaste.

Bevorzugt wird dabei ein thermoplastischer und/ o- der elastomerer Kunststoff oder thermoplastische Elastomere für die Folien- schicht(en) eingesetzt , vorzugsweise PVC, auch als gegossenes PVC oder Polyes- ter, Polyethylen (PE), Polyester mit PVC Ober- fläche, Polyurethan (PUR) und Ther- moplastisches Polyurethan (TPU), Polypropylen ( PP), Castpropylen (CPP), Oriented Propylen(OPP), Biaxial oriented Propylen (BOPP), Polystyrol (PS), und /oder Po- lyethylenterephthalat ( PET) biaxial orientierte Poly- esterfolie (BOPET) Polyester (PES), Polytetraflourethylen ( PTFE), High Density Poly- ethylen (HDPE), Low Density Polyethylen, (LDPE) , Polyamid (PA), Polyethylen- terephthalat (PET) oder Polystyrol (PS), Polylactid (PLA oder PDLA oder PLLA oder PDLLA), Polybutylenterephthalat ( PBT ), Polytrimethylenterephthalat (PTT), Poly- carbonat ( PC) Polyethylennaphthalat ( PEN), Polycarbonat ( PC), Polyestercarbonat (PEC), Polyarylate (PAR), ungesättig- tes Polyesterharz (UP), gegossene Alkydharz- folie, gegossene Acrylharzschicht, Po- lyimide (PI), PEI, Polyethersulfon (PES) Poly- ethylennaphthalat (REN),RETR bzw. Kapton, Polyetherketone wie z.B. PAEK und PEEK, Cellophan und Acetat oder Kom- binationen dieser Kunststoffe.

Alternativ können auch Biopolymere zum Einsatz kommen. Biokunststoffe lassen sich aus einer Vielzahl pflanzlicher und tierischer Rohstoffe herstellen. Die wichtigs- ten Rohstofflieferanten sind Holz (Cellulose und Lignin), Getreidepflanzen und Kartof- feln (Stärke), Zuckerrohr und Zuckerrübe (Zucker) sowie Ölpflanzen (Pflanzenöle) und z.B. Insekten (Chitinpanzer und Krabbenschalen). Cellulosebasierte Kunststoffe sind z.B.: Zelluloid, Cellophan, Viskose und Lyocell, sowie Celluloseacetat und Lignin ba- sierte Biopolymere mit Zugabe z.B. von Naturfasern aus Hanf oder Flachs und cellulo- sebasierte Biopolymere z. B. aus Baumwolle.

Auch modifizierte Cellulose unter Einsatz von Enzymen kann als Biopolymer zum Ein- satz kommen. Stärkebasierte Biopolymere werden gewonnen aus Mais, Weizen, Kartof- feln, sowie Zuckerrohr und Zuckerrüben. Dazu zählen Thermoplastische Stärke (TPS) Polymilchsäure- bzw.Po- lylactid (PLA), Polyhdroxalkanoate wie Polyhydroxybutyrat, Polyester oder thermo- plastischer Biopolyester, wie Polyethylenterephthalat (PET), Po- lytrimethylentereph- thalat (PTT) und Polyethylenfuranoat (PEF). Aus Pflanzenölen lassen sich Fettsäuren gewinnen, die über mehrere chemischen Zwischenstufen in hochwertige Biokunststoffe umgewandelt werden. Pflanzenölbasierte Kunststoffe sind Biopolyamide (Bio- PA) und Biopolyurethane (Bio -PU). Weitere Rohstoffe für Biopo- lymere sind Kasein, ein Protein aus Milch, Gelatine, ein Protein aus tierischen Knochen oder Haut und Chitin, ein Polysaccharid aus Pilzen, Insekten ( Chitosan ), Krabbenscha- len. PHB ( gewonnen aus Bakterien) , Zein und Algen. Biopolymere sind ökologisch nachhaltig da die Rohstoffe dafür nach wachsend sind (nicht erdölbasierend) und bio- logisch abbaubar. Grundsätzlich können auch polymere und/oder biopolymere Materi- almischungen aus den oben erwähnten Kunststoffen eingesetzt werden.

Die oben erwähnten Polymere und Biopolymere können grundsätzlich in Form einer Kunststoffolie zur Metallisierung eingesetzt werden. Darüber hinaus können auch Mischungen einzelner oder mehrerer der vorgenannten Kunststoffe zum Einsatz kommen. Die Kunststofffolien können durch Extrusion oder auch durch Gießen, Kalandrieren oder Blasformen gefertigt werden. Im Blasformver- fahren können auch mehrere Folien mit unterschiedlichen Eigenschaften zu einem Foli- enverbund coextrudiert werden. Optional können diese Folien selbstklebend mit Poly- acrylat Kleber beschichtet werden zur Klebekaschierung. Die Folienstärke einer Folien- schicht liegt zwischen 20 mm und 2500 mm liegen, bevorzugt zwischen 20 mm und 500 mm, insbesondere bei 20-150 mm.

Derzeit handelsübliche Folienmaterialien, für das Bedrucken der Dekorschicht gemäss Punkt 2.e sind z.B.: PVC, Polyester, wie z.B. BOPET, PP und Polyamid.

Eine sehr einfache und wirtschaftliche Ausfiihrungsform ist folgende: Hier besteht die obere Schicht aus nur einer Folie, die unterseitig eine gedruckte Elektronik auufweist. Dabei ist es vorteilhaft die Folie für die Bedruckung mit einer transparenten Druck- / Tinten- / Farbaufnahmeschicht auszurüsten. Das verwendete Kunstoffmaterial muss da- bei, die für den Einsatzzweck entsprechende Abrieb,- Kratz- und Verschleiß festigkeit besitzen. Werden zwei Folien als Schichtaufbau verwendet, so kann die Bedruckung der Elektronik auf der Unterseite der obersten Folienschicht und/ oder auf der Oberseite der unteren Folienschicht angeordnet werden.

Im Übrigen kann der vorgenannte Schichtenverbund auch als Vorprodukt in Form eines fest miteinander verbundenen Schichtenverbundes ausgebildet sein. (Siehe dazu bevor- zugte Ausführungsformen)

Die Verbindung einzelner Folienschichten wird nachfolgend als Verbundfolie be- zeichnet.

Die einzelnen Folienschichten werden üblicherweise extrudiert oder kaschiert bzw. la- miniert. Die Herstellung der Verbundfolie erfolgt durch Kaschieren mehrerer Lagen gleicher oder verschiedener Materialien bzw. Schichten, in diesem Fall von Kunst- stofffolien, die dem erfindungsgemäßen Schichtaufbau entsprechen, mit Hilfe geeig- neter Kaschiermittel (Lack, Leim, Wachs). Kaschiert wird, um ein Material zu schüt- zen und/oder zu dekorieren und/oder eine Addierung günstiger Materialeigenschaften zu erzielen, indem das Material auf oder unter eine Schicht mit den gewünschten Eigen- schaften aufgetragen oder zwischen zwei Schichten eingebracht wird. Lfm die Kunststofffolie zu bedrucken, kleben und beschichten /coaten ist bei den meisten der o.g. Kunststoffmateralien, (z.B. bei PE, PP, PET) eine Coronavorbehandlung notwen- dig.

Dabei wird die zu behandelnde Oberfläche für eine kurze Zeit einer elektrischen Coro- naentladung ausgesetzt. Alternativen zur Coronabehandlung sind die Flammbehand- lung, die Plasmabehandlung und die Fluorierung.

Die Verarbeitung erfolgt vorzugsweise von der Rolle (Rollenkaschiermaschine) oder als Flächenkaschierung. (Flächenkaschieranlage)

Bei den Kaschierverfahren unterscheidet man Nass-, Trocken - und Thermokaschie- ren. Bei der Nasskaschierung wird ein viskoser Dispersionsklebstoff auf Polyurethan- basis in Schichten von 7- 25 mm auf die Folie aufgetragen und zunächst in einer Trock- nungseinrichtung angetrocknet. Der Klebstoff ist häufig zweikomponentig. Der Be- druckstoff wird zugeführt und in einem Walzenspalt unter Druck mit der Folie ver- eint. Anschließend kommt es zur Aushärtung des Klebstoffs. Bei der Trockenkaschierung wird der Schichtenverbund mit einem trockenen Klebstoff erzeugt, wobei überwiegend auf die jeweiligen Substrate abgestimmte 2-Komponenten-Reaktiv-Klebstoffe zur Ka- schierung eingesetzt werden. Die Auftragstechniken der Kaschieranlagen werden vor- zugsweise über Kisscoating, Rasterwalzenauftrag, Düsen- und Gieß- kastenprinzip vor- gesehen, mit Auftragsgewichten vorzugsweise von lg/m 2 bis 20 g/m 2 .Für die Thermo- kaschierung ist die Folie mit einem thermoaktiven Klebstoff vor- beschichtet. Dieser wird durch Wärme aufgeschmolzen und verbindet unter Einwirkung von Druck die ver- schiedenen Materialien. Die Verbundfolie kann auch durch Laminieren hergestellt werden. Beim Heiß -Lami- nieren wird unter Druck- und Wärmeeinwirkung (60- 120 °C) ein beidseitiger vollflä- chiger Verbund des erfindungsgemäßen Schichtaufbaus erzielt. Die Kombinations - möglichkeit zwischen Foliendicke und flächenbezogener Masse des metallisierten Pa- piers/ Kunststofffolie erlaubt sowohl flexible, noch rollbare, als auch biegesteife End- produkte.

Bei der Kaltlaminierung sind die Folien mit einem Kleber beschichtet, der normale Klebeeigenschaften bei allen Temperaturen hat. In der Verbindung zwischen Papier / Folie und Folie fungiert der Kleber wie ein doppelseitiges Klebeband.

Neben den zuvor genannten Verfahren können die Folienschicht/en inclusive der metal- lischen Schicht und einer Trägerplatte und Gegenzug auch in einem Verfahrensschritt, z.B. thermisch miteinander verbunden werden, z.B. durch Heißverpressung und / oder Heißverklebung zum Beispiel mit einer Heißpresse (Hot Press oder Hotmelt Press) oder auch Kurztaktpresse.

Ein weiteres Verfahren zur Verbindung von Kunststoff und Metall ist das Thermische Direktfugen, wobei die metallische Schicht durch Widerstandserwärmung elektrisch er- hitzt wird. Wird diese dann mit der Kunststoffschicht zusammengebracht, schmilzt der Kunststoff auf und bildet unmittelbar nach dem Erstarren einen festen Verbund mit dem Metall.

Von besonderem Vorteil ist es in diesem Zusammenhang, dass die obere Schicht unter- seitig eine PUR-Folienschicht als Haftvermittler zur Trägerschichtausweist. PUR zeichnet sich dadurch aus, dass dieses Material einen niedrigen Schmelzpunkt hat, so dass dieser Kunststoff beim Thermischen Verbinden aufschmilzt und damit als Kleb- schicht/Haftvermittler zwischen den weiteren Schichten der Oberschicht und dem me- tallischen Material dient. Die Kunststofffolien können an der äußeren Nutzschicht eine Struktur aufweisen, die beispielsweise durch Prägen erzeugt wird. Damit lassen sich Oberflächenstrukturen, wie z.B. Holz - oder Steinstrukturen hersteilen.

Eine weitere Ausfuhrungsform ist es die Folienschicht als transparente Melaminschicht auszubilden. Hier können beispielsweise ein- oder mehrere transparente Overlays auf die gedruckte Elektronik aufgebracht werden. Die gedruckte Elektronik kann dann z.B. unter- oder oberseitig auf dem Overlay.vorgesehen werden. Die Verbindung des Over- lays zur Trägerschicht/ Trägerplatte erfolgt vorzugsweise durch Thermisches Verbin- den, d.h.Heißverpressen, z.B. über eine Kurztakt- Presseinrichtung( KT Presse) und / oder Kleben oder Heißverkleben.

Ebenso kann die erfmdungsgemässe Verbundfolie unterseitig mit einem melaminbe- harztem Papier versehen werden. Dies hat den Vorteil, dass die Verbundfolie in einer KT Presse z.B. auf einen Holzwerkstoff (HDF, MDF) verpresst werden kann. Die Ver- pressung erfolgt unter Druck und Hitze, bei Temperaturen von 160- 200 Grad Celsius. Dabei wird das Melamin in dem beharzten Papier flüssig und verbindet sich durch den Pressvorgang mit der HDF Trägerplatte. Das melaminbeharzte Papier übernimmt hier eine Adapterfunktion zur Verarbeitung der Verbundfolie in einer KT Presse. Vorraus- setzung für die technische Umsetzbarkeit ist dabei die Verwendung einer erfmdungs- gemässen Verbundfolie, die temperaturbeständig ist im Bereich von 160-200 Grad Cel- sius. Dies bedeutet, dass die verwendeten Einzelkomponenten der Verbundfolie, wie Kunststoff und Kaschierkleber diese Temperaturanforderung erfüllen müssen. Der Schmelzbereich von Polypropylen (PP) liegt bei ca.160 - 165 Grad Celsius, Poly- ethylenterephthalat (PET) hat einen Schmelzpunkt von 250-260 Grad Celsius, Po- lyurethan hat einen Schmelzpunkt von 190 Grad Celsius.

Die transparente ein-oder mehrlagige Deckschicht wird vorzugsweise in einer glaskla- ren Ausführung vorgesehen, damit die gedruckte Elektronik zur vollen Geltung kommt. Es kann jedoch auch vorgesehen werden, dass die transparente ein-oder mehrlagige Deckschicht eine gezielt, tranzluzente Einfärbung aufweist, z.B. als milchige, weißliche Einfärbung. Dadurch kann die transparente ein- oder mehrlagige Deckschicht optisch gezielt matter gestaltet werden. Dies kann auch durch den Einsatz von transluzenten und/oder lasierenden Farben erzeugt werden.

Oberflächenausrüstungen (3 b)

Darunter sind transparente Oberflächenausrüstungen und/oder Imprägnierungen (z.B. bei Geweben, Vliesen, Textil) vorzugsweise transparente Polymerlacksysteme zu ver- stehen und / oder auf Naturstoffen basierte Öl- und /oder Wachsbeschichtungen.

Bevorzugt werden transparente, hoch strapazierfähige und / oder geruchsarme Be- schichtungen auf der Grundlage eines thermoplastischen und/oder elastomeren Kunst- stoffes. Bevorzugte Kunststoffe: PUR und/oder PLTR- und/ oder PVC und / oder PP- und /oder PE- Besondere Vorteile hat ein wasserverdünnbarer, transparenter PUR-Lack, mit optionalen Zusätzen wie z.B. Polyurethandispersion, Kieselsäure, Wasser, Glyco- lether, heterozyklische Kethone und/ oder Additive. Auch sind Acrylat-Lacke, EB Ac- rylat und Imprägnierungen, elastische Lacke, Polyesterlackierungen (PES), z.B. Im Einbrennverfahren oder ESH Lackierungen einsetzbar. Weitere anwendbare Lacksy- steme: Alkydharzlacke (lufttrocknend oder wärmetrocknend), Dispersionslackfarben, Farben und Lacke auf Basis von Acrylpolymeren, High Solids (Nasslacksysteme auf Basis organischer Lösemittel) Phenol-, Harnstoff- und Melaminharzlacke (Wässrig oder lösemittelhaltig) Polyesteranstrichfarben, Polystyrol- und Polyvinylharzlacke, Po- lyurethanharzlacke, Pulverlacke, Silikonharzfarben, Farben und Lacke auf Basis natür- licher Polymere ( Biopolymere, siehe Ausführungen unter 3a.), Farben auf Basis syn- thetischer Polymere, Zellulosenitratlacke.

Bevorzugte Stärke der Oberflächenausrüstung von Imm bislOOO mm. Die Oberflä- chenausrüstungen können auch strukturbildend sein, d.h. eine Oberflächenstruktur aufweisen, z.B um eine dekorative Optik, wie z.B. Holzpore oder dekorative plastische Strukturen zu erzeugen oder eine funktionelle Eigenschaft zu erzielen, wie z.B. Rutsch- hemmung . Die Oberflächenausrüstung kann sowohl direkt auf die Schicht aus gedruck- ter Elektronik aufgebracht werden unter Verzicht der unter( 3a) beschriebenen Kunststofffolien und/ oder oberseitig als äußere Nutzungsschicht auf die unter (3a) be- schriebenen Kunsttoffolien oder auch zwischen den Folien unter -oder oberseitig, z.B. als haftvermittelnde Schicht.

Für die Oberflächenausrüstung, kommen z.B. folgende Verfahren in Frage , die sich in charakteristischen Merkmalen unterscheiden und in der Regel Schichtdicken von 5 mm - 40 mm umfassen können.

1. Vernetzende wässrige Beschichtungen

a. UV-vemetzende wässrige Beschichtungen

-Physikalische Trocknung durch Wärme in Trockenkanälen und/oder durch Infrarot- strahlung

-Chemische Vernetzung durch ultraviolette Strahlung (UV)

-Typische Trockenschichtdicke 8 - 15 mm b. Hitze -vernetzende wässrige Beschichtungen

-Chemische Vernetzung durch hohe Temperaturen in Trockenkanälen

-Typische Trockenschichtdicke 8 - 12 mm c.Zweikomponentige wässrige Beschichtungen

-physikalische Trocknung durch Wärme in Trockenkanälen und / oder Infrarotstrah- lung

-chemische Vernetzung durch die Härterkomponente

-Typische Trockenschichtdicke 5 - 20 mm

2. Vernetzende 100% - Systeme (Festkörpergehalt)

-Chemische Vernetzung und Härtung zum Beispiel durch ultraviolette Strahlung (UV) -Typische Trockenschichtdicke 10 - 25 mm in Zweischichtaufträgen auch bis 35 - 40 mm

3. Thermisch trocknende wässrige Dispersionen (nicht vernetzt) -Physikalische Trocknung durch Wärme in Trockenkanälen und/oder durch Infrarot- strahlung

-Verwendung meist als temporäre Beschichtung

-durch Grundreiniger entfembar

-Typische Trockenschichtdicke 5 - 12 mm

Es versteht sich, dass die vorstehend aufgeführten Herstellungsverfahren sowohl für das Anzeigeelement, als auch für das integrierte elektronische Element vorgesehen sind und hierfür angewendet werden können.

Bevorzugte Ausführungsform: Digitales KFZ- Kennzeichen

Ein sehr innovativer bevorzugter Anwendungsbereich der Erfindung ist die Verwen- dung eines Anzeigeelementes vorzugsweise für ein Element als amtliches Kennzeichen für ein ein Fahrzeug, vorzugsweise für ein PKW, LKW, Omnibus, Zweirad, Motorrad, E Bike, E Roller, Caravan, Nutzfahrzeug, Anhänger, Strassenbahn, Zug, Flugmobile, insbesondere ein Flugzeug, ein Hubschrauber und ein Schiff.

Der Stand der Technik bei KFZ Kennzeichen besteht im Wesentlichen aus der Kenn- zeichnung eines Fahrzeuges durch ein Blechnummemschild, zumeist in der Größe 520 xl 10 mm. Dieser Stand der Technik hat sich seit der Entwicklung der ersten PKWs in der Automobilgeschichte nicht wesentlich verändert. Das Schild enthält dabei folgende Informationen: Fahrzeugkennzeichen, Länderkennung, TÜV/ HU Plakette und die Stadt-/ Kreis-/ Landplakette.

Das KFZ Kennzeichen wird bei PKWs in der Regel im Front-und Heckbereich des Fahrzeugs angebracht. Für das hintere Kennzeichen ist eine Kennzeichen- beleuchtung am Fahrzeug vorgeschrieben.

Vergleicht man den Stand der Technik eines heutigen Automobils und zeitgemäße Ser- viceangbote zur Mobilität , wie z.B. Elektromobilität, Autonomes Fahren, Fahrhilfen, Vekerhrslenkung, Carsharing Bordcomputer, LED Lichttechnik etc, so mutet das ble- eherne Kennzeichen an, wie ein altertümliches Relikt aus dem Analogzeitalter unserer Grossväter. Zudem ist es bezogen auf das heutige Automobildesign ein hässliches, un- ästhetisches, unwertiges Fremdelement an einem modern, designten PKW, wie z.B. beim Alfa Romeo, bei dem das Kennzeichen im Frontbereich zudem auch noch asym- metrisch angeordnet ist.

Auch die behördliche Abwicklung bei den Strassenverkehrsämtem zur An- und Abmel- dung von Fahrzeugen, die ein persönliches Erscheinen des KFZ Halters oder KFZ Händlers erfordern, ist bürokratisch -, zeit- und kostenintensiv und entspricht nicht den organisatorischen und abwicklungstechnischen Möglichkeiten des digitalen Zeitalters. Erschwerend hinzu kommt das förderalistische Organisationsprinzip Deutschlands, mit den vielen dezentralen Strassenverkehrsämtem der Städte und Kreise der einzelnen Bundesländer, und einer dezentralen Daten- und Informationsverwaltung und Speiche- rung.

Der Erfinder hat sich die Aufgabe gestellt hier ein grundlegend neues Konzept für diese Problemstellung zu entwickeln unter Ausnutzung sämtlicher Möglichkeiten des Digi- talzeitalters. Fig.3 gibt einen Überblick über das Gesamtkonzept.

Die Grundidee besteht in der Gründung einer bundeseinheitlichen Blockchain Cloud der Strassenverkehrsbehörde (STVB) gesteuert und kontrolliert von den einzelnen Strassenverkehrsämtem (STVA), die die Datenhoheit besitzen. In dieser Blockchain - Cloud sind sämtliche Daten aller relevanten User -Gruppen rund um das Thema Mobili- tät gespeichert und werden laufend kontrolliert, sowie aktualisiert. Dabei gibt es für die einzelnen Usergruppen definierte Zugriffs- und Transaktionserlaubnisse, die mittels ei- ner Software / App via Smartphone an die Cloud übermittelt werden.

Beispiele für User -Gruppen sind STVA, Führerscheinstelle, KFZ Steuer, Punktekonto/ Bußgeld, KFZ Versicherung, TÜV, Polizei, Verkehrslenkung, KFZ Halter, KFZ Händ- ler, KFZ Hersteller, Automobiclubs, u.a.m. Desweiteren schlägt der Erfinder vor jedes Fahrzeug mit einem digitalen KFZ Kennzei- chen auszustatten. Dabei handelt es sich um ein vorkonfiguriertes elektrisch angesteuer- tes Anzeigeelement mit einem integrierten elektronischen Element.

Dieses digitale KFZ Zeichen wird über eine drahtlose Verbindung über das Rechner netz der STVB durch die Blockchain Cloud direkt angesteuert.

Mit anderen Worten besitzt jedes digitale KFZ Kennzeichen - ein Bildschirmdisplay auf dem das Fahrzeugkennzeichen und weitere Informationen bildlich angezeigt werden, wobei diese Informationen über ein STVB eigenes staaatliches Funknetz, vorzugsweise auf 3G / $G / 5G Basis mit eigener geschüzter, Kanalbandbreite, aus der Blockchain- cloud direkt an das digitale KFZ Zeichen gesendet werden und auf diese Weise Zulas- sungen und Abmeldungen abgewickelt werden.

Zur Identifizierung des KFZ Kennzeichens weist das Bildschirmdisplay ein elektroni- sches Element, z.B. in Form einer 3-5 G Simcard auf die mit einem Verschlüsselungs- code gesichert ist. Jedes Digitale Kennzeichen hat einen eigenen ID Code, der der Fahrgestellnummer des KFZ zugeordnet ist.

Das digitale Kennzeichen stellt zudem eine Verbindung zum Bordcomputer des Fahr- zeugs her und ermöglicht einen defmerten Zugriff und Datenaustausch mit dem Bord- computer durch die STVB Blockchaincloud.

Das Prinzip der Blockchaincloud erlaubt eine sicher verschlüsselte Datenspeicherung und Datenverwaltung. Der o.g. ID Code besteht aus einerm mindestens 8-stelligen Zei- chencode, aus einem Zeichenraum von mindestens 89 Zeichen. Dies ergibt eine Kom- binationsmöglichkeit von 8 hoch 89, was im mathematischen Ergebnis unendlich ist und so einen Hacker - Angriff nach der Brüte Force Methode unmöglich macht.

Zusammengefasst ergeben sich daraus folgende erfindungsgemäße technische Ausfüh- rungen: Anzeigeelement dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT-Infrastruktur über ein Rechnemetz aufweist.

Anzeigeelemennt dadurch gekennzeichnet, dass die IT-Infrastruktur ein verschlüssel- tesBuchführungssystem und / oder Verfahren aufweist.

Anzeigeelement dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindestens einem Verschlüsse- lungscode digital verknüpft ist.

Anzeigeelement dadurch gekennzeichnet, dass der Verschlüsselungscode aus minde- stens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zei- chen.

Anzeigeelement dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist.

Das digitale KFZ Kennzeichen ist kompatibel mit gängigen KFZ Kennzeichen Halte- rungen. Es besitzt eine integrierte Schnittstelle bzw. Adapter -Steckverbindung zur Ver- bindung mit der Autobatterie und wird auf 12 V Basis betrieben. Zu diesem Zweck ist es erforderlich eine Kabelverbindung von der Autobatterie zum vorderen und hinteren Kennzeichen vorzusehen. Zudem enthält das Display eine interne Batterie und / oder Akku, falls die KFZ Stromversorgung ausfällt, dadurch wird eine Stromnotversorgung von z.B. 10 Stunden möglich Das vordere und hintere Kennzeichen können kabellos über Bluetooth und/ oder über eine Kabelverbindung miteinander verbunden werden. Das Display ist in Dauerfunktion, optional kann sich das Display nachts auch automa- tisch ausschalten.

Displayinhalte werden von der STVB Blockchaincloud nach Erfassung der Stammdaten des KFZ automatisch auf das KFZ Kennzeichen Display gesendet und laufend aktuali- siert. Den alleinigen, autorisierten Zugriff für das digitale Display hat die regional zu- ständige Strassenvekehrsbehörde ,d.h. hier liegt die Datenhoheit, die das digitale Kenn- zeichen steuert und kontrolliert bzw. aktualisiert oder löscht. Das Strassen Verkehrsamt ist zukünftig die zentrale, datenhoheitliche Kommunikations- und Koodinationstelle zwischen den verschiedenen Usergruppen,

Alle relevanten Informationen der Usergruppen gehen als Information zunächst an die Behörde und werden dort zentral erfasst, kontrolliert, gespeichert .und laufend aktuali- siert. Beispiele: TÜV Prüfer meldet HU Verlängerung, Polizei meldet technische Män- gel am Fahrzeug, Halter meldet Wechsel der Haftpflichtversicherung etc.

Darüber hinaus ergeben sich durch das digitale KFZ Kennzeichen und die die digitale Vernetzung von Informationen der verschiedenen User Gruppen zahlreiche neue Zu- satzfunktionen, sowie neue Anwendungsmöglichkeiten. Dies führt zu einem neuen Le- vel der Effizienz nicht nur bei den Strassenverkehrsämtern , sondern für alle beteiligten User -Gruppen. Es folgt eine Übersicht über die wesentlichen Vorteile und Möglichkei- ten des Gesamtkonzeptes.

Neue Anwendungen und Zusatzfunktionen

Neben den Grundfunktionen lassen zukünftig auch ganz neue Zusatzfunktionen über das digitale Kennzeichen realisieren, wie z.B. ein bundesweites Verkehrsleitsystem über die GPS Erfassung des digitalen KFZ Kennzeichens oder auch durch Vernetzung mit dem Bordcomputer des KFZ kann das Strassenverkehrsamt die Einhaltung von Umweltauflagen kontrollieren ,wie .z.B. Kraftstoff -Verbrauchswerten, Abgaswerten, gemäss der Energieverbrauchskennzeichnung der Hersteller oder Fahrverbote für be- stimmte Zonen aktivieren oder auch sicherheitsrelevante Kontrollen vornehmen wie etwa Geschwindigkeitskontrolle, Gurtpflicht, Abstandskontrolle... etc. über GPS Funk- tion mit automatischer Bussgeldzustellung oder eine Stilllegung des Fahrzeugs einstel- len ( z.B. Display komplett rot mit Text:„Ausser Betrieb“). Über die zentrale Digitali- sierung der KFZ Daten ist zukünftig auch ein internationaler Datenaustausch zwischen einzelnen Ländern z.B. europaweit möglich und/ oder lässt sich europa- / weltweit ver- einheitlichen. (KFZ-Cloud als Speicher)

Vorteile für Strassenvekehrsämter (STVA ) a.Erhebliche Verbesserung der Leistungsfähigkeit und Effiziez der Strassenvekehrsbe- hörden:

b.Rasante Schnelligkeit in der Abwicklung von KFZ - Zulassungen durch aus- schliessliche online Kommunikation mit relevanten Usern ,

w.z.B. KFZ Halter, KFZ Händler ...etc. Persönliches Erscheinen im Strassenvekehrs- amt nicht mehr notwendig. Zulassung eines Fahrzeuges ist in wenigen Minuten aktiv. Zentralisierung

c.Kostenreduktion in den Verwaltungsabläufend.

d.Eweiterter neuer Aufgaben / Kompetenzbereich

e. Personal übernimmt zukünftig Kommunikations und Kontrollfunktionen, wie z. Um- welt / Sicherheit etc., statt Personal abbauen

Darüberhinaus entstehen zukunftsweisende, neue Kontrollfunktionen und Steuerungs- möglichkeiten für das STVA in den Bereichen Sicherheit, Umwelt, Verkehrslenkung, Verkehrssicherheit, autonomes Fahren, durch Online Zugriff auf Kamera/ Video ( Live Cam) und Sensorfunktionen des digitalen KFZ, sowie definierter Zugriff auf Bordcom- puter. Der Pkw-Verkehr bringt externe Kosten, insbesondere im Bereich Umweltver- schmutzung und Unfallfolgekosten, mit sich. Hier können Maßnahmen des STVA zur Erhöhung der Verkehrssicherheit dazu beitragen, dass die Zahl der bei einem Verkehrs- unfall getöteten Personen reduziert wird.

Weiterhin können damit die Sekundärkosten aller Verkehrsteilnehmer gesenkt werden, wie Unfall- und Umweltkosten (Lärm, Luftschadstoffe) werden, die ansonsten von der Allgemeinheit übernommen werden.

Sowohl Automobilbauer und Zulieferbetriebe als auch Unternehmen aus der IT - Bran- che, insbesondere Google, forschen und entwickeln am autonom fahrenden Kraftfahr- zeug. Die Erfindung kann hier im erheblichen Maße zu einer zeitnahen Lösung dieser gesamten Thematik beitragen. Auch Themen wie Parkleitsysteme, Parkhausbelegung, Vernetzung mit Car-Sharing Angeboten können zukünftig helfen die Innenstädte verkehrsmässig zu entlasten und den Verkehrsfluss zu optimieren. Das Digitale KFZ löst dabei das derzeitige Problem der Kennzeichnung eines Carsharing Fahrzeuges, da dies zum Beispiel durch eine ande- re Kennzeichenarbe im Display kenntlich gemacht werden kann.

Das STVA kontrolliert zukünftig die Einhaltung des Datenschutzes und führt eine re- gelmäßige Datenlöschung von Altdaten durch.

Es folgt eine beispielhafte Auflistung der neuen Möglichkeiten:

- Polizeikontrolle Über App möglich. Polizei kann sämtliche KFZ und KFZ Halter In- formationen abrufen, z.B. Fahrzeugpapiere: Fahrzeugschein, Füherschein ist digital hin- terlegt in App, Durchführung von Fahrzeugkontrollen, polizeilich gesuchte Fahrzeuge, TÜV Kontrolle, Geschwindigkeitskontrolle , Fahrzeugsicherheit, GPS Ortung von Fahrzeugen. Mängelanzeige KFZ, Stillegungsinfo an Strassenverkehrsamt, Bussgeldin- fo

-Führerscheinkontrolle/ Fahrer muss sich zukünftig in Fahrzeug einloggen dadurch wird Führerscheinstatus, Punkte in Flensburg, Führerschein wird digital hinterlegt in App

-Kontrolle: Einhalten von Fahrpausen / vorgeschriebenen Pausen, Fahrtenbuch wird ge- speichert, Fahrten Buchfunktion, Fahrtenschreiberfunktion: Überprüfung und Kontrolle von Fahrtzeiten. Automatischer Hinweis auf Fahrpausen auf Bordcomputer

-Diebstahlschutz. Codierung Fahrgestellnummer und Kennzeichen, bei nicht Überein- stimmung:: Fahrsperre aktivieren

-Kontrolle der Gurtpflichterf llung durch Vernetzung mit Bordcomputer über Blue- tooth, automatische Meldung bei Verstoss, mit Bussgeldbescheid

-Kontrolle Telefonierverbot mit Mobilphone während der Fahrt über Verbindung mit Bordcomputer, automatische Meldung bei Verstoß, mit Bussgeldbescheid -Online Kontrolle des STVA Lichtanlage und Bereifung, Profiltiefe Sommer/ Winter- reifen

-Pannenhilfe, SOS Funktion, Notruf, Stau: auf dem Display erscheint entsprechender Text, Blinkfunktion etc. Durchsagen über Bordlautsprecher, Stau, Umleitungen, SOS....

-automatische Erkennung von Geschwindigkeitsüberschreitungen per GPS inclusive Bussgeldbescheid

-Abstandsmessung zum Vorderfahrzeug über Sensor/ inclusive Bussgeldbescheid bei Verstoss

-Mautinformationen : Automatische Erfassung und Abbuchung von Mautpflichtigkeit

-Speicherung aller relevanten Stammdaten von KFZ Halter/ KFZ Händler/ KFZ/ TÜV Hersteller: Fahrzeugschein, Fahrzeugbrief, Führerschein, Fahrzeug, Austattung, Be- triebsanleitung, Reparaturhistorie Versicherungsstatus, Haftpflicht, Kasko ,TÜV TÜV kann durch App Prüfsiegel aktualisieren, separater Zugriff nur auf TÜV bereich,

-Kontrolle und Belohnung defensives Fahren und Teilnahme Fahrsicherheitstraining, Auswertung Fahrverhalten über Bordcomputer, Belohnung: Senkung der KFZ Steuer und Versicherungsbeiträge... Kosten für den Fahrzeughalter senken

-Individualisierung des Kennzeichens z.B. individuelle grafische Gestaltung ,z.B. Aus- wahl von verschiedenen grafischen Hintergründen

-Zusatzfunktionen KFZ Display: Anzeige von Verkehrsinformationen, Gefahr, Stauen- de, Pannenhilfe, Kommunikation mit anderen Verkehrsteilnehmern.... -Vorteil für Fahrzeughersteller: Intergration des digitalen KFZ Zeichens in Karosserie- design bei Neuentwicklungen der Autohersteller, neue Designmoöglichkeiten durch flächenbündige Integration in die Karosserie- Aussenhülle, dadurch diebstahlsicher, Bei Neuentwicklungen kann Position, Format, Form und Grösse des Kennzeichens variie- ren

-Kennzeichen bei Dunkelheit erkennbar, digitales KFZ Display leuchtet Tag und Nacht durchgängig, geringer Stromverbrauch und / oder ohne Strom durch bistabilen Display- zustand mittels elekrronischer Tinte, Bessere Erkenn -und Lesbarkeit des Kennzei- chens, Mehr Informationen und Zusatzinformationen ablesbar

-Die Kennzeichenbeleuchtung am Heck des KFZ entfällt

-Display ist kompatibel und nachrüstbar für konventionelle Kennzeichen Halterungen

-Vermeidung von Metallschildem, die im Lebenszyklus durchschnittlich bis zu 5 x ge- wechselt werden

-digitales KFZ Schild ist fälschungssicher durch doppelte GPS Funktion, d.h. von GPS Bordcomputer und GPS des digitalen Kennzeichens, bei Entfernung des KFZ Zeichens wird abweichende GPS Ortung erkannt und automatisch an STVA gemeldet und auto- matische Mitteilung an Polizei

-Personenerkennung über Sensor/ Kamera

-Diebstahlsicherungsfunktion: Fahrzeugzugriff und Fahrfunktion nur durch Einloggen des Fahrers möglich oder Zugriff nur durch definierten Fahrer- Personenkreis Codie- rung ob Fahrzeug fremdgeöffnet wurde, GPS Ortung von gestohlenen Fahrzeugen -Akustische und optische Signale bei Diebstahlversuch, automatische Kameraaktivie- rung und automatische Bildversendung bei manipulationen am KFZ Schild, Meldung an Polizei

-Verkehrslenkung durch eingebaute GPS Erkennung, aktuelle Infos an Bordnavi, auto- matische Navisteuerung, Verkehrsleitsystem, Stauminimierung

- Parkleitsystem , Parkhausbelegung,

-Vernetzung mit Car sharing Angeboten

Ein wichtiger neuer Anwendungsbereich ist die Kontrolle der Fahrzeughersteller. Der Dieselskandal hat gezeigt, dass zukünftig eine staatliche Regulierung und Kontrolle der übermächtigen / kriminellen Autoindustrie erforderlich ist. Durch neue Gesetze könnten die Automobilhersteller verpflichtet werden, die Einhaltung von Gesetzen und Normen, wie z.B. Umweltauflagen, Schadstoffausstoss, Verbrauchswerte messbar im Bordcom- puter zu hinterlegen. Hier kann die Erfindung dazu beitragen, dass über das digitale KFZ Zeichen in Verbindung mit dem Bordcomputer die Einhaltung sämtlicher Aufla- gen durch den Staat, durch die Strassenverkehrsbehörde bzw. das Strassenverkehrsamt kontrolliert wird. Es folgt eine beispielhafte Auflistung der neuen Kontrollmöglichkei- ten.

-Einhaltung der Werte Pkw-Verbrauchskennzeichnungsverordnung

-Kontrolle Treibstoffverbrauch über Bordcomputer Einhaltung des Energieverbrauchs

Klasse a+- G

-Kontrolle Lärm über Bordcomputer

-Kontrolle Schadstoffemission über Bordcomputer

Es versteht sich, dass das vorstehend aufgeführte erfindungsgmäße Prinzip der Ansteue- rung über eine drahtlose Verbindung von einem externen Rechner/Computer und den damit verbundenen neuen Anwendungsmöglichkeiten, die für das digitale KFZ Kenn- Zeichen vorgesehen sind, grundsätzlich zur Ansteuerung oder Steuerung von elektrisch angesteuerten Anzeigeelementen jedweder Art anwendbar sind.

Grundsätzlich ist vorgesehen, dass die elektrisch angesteuerte Anzeige aus einem Bild- schirm und /oder Screen und/oder Display, insbesondere Smart Display, und/oder Mo- nitor und /oder Touchsreen Oberfläche oder aus einer projezierten Oberfläche besteht.

Die Erfindung ermöglicht eine Vielzahl von neuen Anwendungsmöglichkeiten.

Vorzugsweise ist eine Verwendung für ein Element zur Verwendung als ein Verpak- kungs-, Fahrzeugkennzeichnungs-., Verkehrsschild-, Werbeschild-, Schmuck- Uhr-, Kleidung-, Accessoire-, Bilderrahmen-, Boden-, Wand-, Decken-, Möbel-, Dekorations-, Innen- ausbauelement, vorzugsweise Leisten-, Profil-, Kanten-, Tür- und /oder Fenster- element, Fassaden-, Tapeten-, Car-Interior-, Car-Exterior-, Haushaltsgeräte-, Elektroge- räte-, und /oder Outdoorbelagselement vorgesehen.

Besonders bevorzugt, ist auch die Verwendung als Fernsehgerät, insbesondere als LED Fernseher, oder als Preisauszeichnungs- und/oder Informationsdisplay vorgesehen.

Grundsätzlich ist die Verwendung des elektrisch angsteuerten Anzeigeelementes uni- versell als Vorrichtungs-, und /oder Bauteilelement für Vorrichtungen und/oder Bautei- le jedweder Art vorgesehen.

Es versteht sich, das vorstehende erfindungsgemäße Prinzip und die vorgenannten An- wendungsbereiche gleichermaßen für die Verwendung des elektronischen Elementes (E ) vorgesehen ist. Mit anderen Worten kann die Ansteuerung eines Vorrichtungs-, und /oder Bauteilelementes grundsätzlich und selbstverständlich auch ohne die Verwendung eines Anzeigeelementes vorgesehen werden.

Das elektronische Element hat erfindungsgemäß die Aufgabe insbesondere die Funkti- on der Ansteuerung des Anzeigeelemntes oder der Identifikation und Authetifizierung eines Nuzers oder einer Nutzanwendung in einem digitalen Netz zu erfüllen. Selbstver- ständlich kann das elektronische Element nicht nur ein Anzeigeelement ansteuem son- dern kann universell zur Ansteuerung der vorstehend aufgeführten Vorrichtungen und Bauteile und den zuvor beschriebenenen Anwendungsbereichen eingesetzt werden.

So ist es erfindungsgemäß vorgesehen, anstelle eines Anzeigeelementes, jedwede, gear- tete Vorichtung und/oder jedwedes geartete Bauteil allein mittels des elektronischen Elementes anzusteuem.

Erfindungsgemäß ist beipielsweise vorgesehen, dasss die Ansteuerung für ein ein Fahr- zeug, vorzugsweise für ein PKW, LKW, Omnibus, Zweirad, Motorrad, E Bike, E Rol- ler, Caravan, Nutzfahrzeug, Anhänger, Strassenbahn, Zug, Flugmobile, insbesondere ein Flugzeug, ein Hubschrauber und ein Schiff mittels des elektronischen Elementes erfolgt, ohne das es als Anzeigeelement in Form eines digitalen amtlichen Kennzei- chens verwendet wird.

Dabei ist z.B. vorgesehen, dass das elektronische Element an einer geeigneten Position in einem Fahrzeug oder mit dem Fahrzeug verbindbar, zur Ansteuerung des Fahrzeuges vorgesehen wird und, wie vorhergehend ausgeführt, vorzugsweise mit dem Bordcom- puter des Fahrzeuges drahtlos und /oder physisch, zum Beispiel durch ein Kabel ver- bunden wird oder verbindbar ist.

Erfindungsgemäß ist ebenso vorgesehen, wie vorhergehend ausgeführt, das das elektro- nische Element beipielsweise als Car-Interior-, Car-Exterior-, Haushaltsgeräte- oder Elektrogeräteelement vorzugsweise zur Ansteuerung dieser Vorrichtungen verwendet wird.

Weitere Beispiele für die Verwendung des elektronischen Elementes als Vorrichtungs- und/oder Bauteilelement ist der Einsatz zur Ansteuerung von Robotern und/oder Fort- bewegungsmitteln und/oder Objekten und/oder Elementen jedweder Art . Zudem ist es vorgesehen, dass das elektronische Elementes mit Prozessor- und Spei- cherfunktion zur Verwendung als ein Rechner und/oder Computerelement mit Identifi- kations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz, wobei dass das elektronische Element aus mindestens einem Hardwarelement und/ oder einer Software besteht.

Weiterhin ist vorgesehen, dass das Rechner- und/ oder Computerelement als Hard- wareelement ausgebildet wird, insbesondere als Speicher-, USB-, Festplatten, Router- ,Smartphone-,PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Supercomputer, Bildschirm, Kamera , Scanner , Display ,Vorrichtungs-, und/oder Bauteilelement.

Die Identifikations- und/oder Authentifizierungsfunktion zur Erkennung eines Nutzers und/oder auch einer Nutzanwendung, z.B. einer Vorrichtung, ist aus Gründen der Cy- bersicherheit und des Datenschutz und zur Vermeidung unerlaubter Zugriffe auf Vor- richtungen- und Bauteilelemente der vorgenannten Art oder der vorgenannten Anwen- dungsbereiche ist neben der Ansteuerungsfunktion ein weiterer wesentlicher Teilbe- reich der Erfindung.

Dabei ist vorgesehen, dass das elektronische Element neben der oben beschriebenen Ansteuerungsfunktion zusätzlich die Identifikations- und/oder Authentifizierungsfunk- tion aufweist.

Selbstverständlich kann das elektronische Element auch ausschliesslich zur Ansteue- rung eines Vorrichtungs- und Bauteilelementes verwendet werden oder auschliesslich die Identifikations- und/oder Authentifizierungsfunktion aufweisen.

Die Identifikations- und/oder Authentifizierungsfunktion wird an späterer Stelle der Be- schreibung noch eingehend erläutert. Ein wesentliches Prinzip der Erfindung besteht darin, dass bei z.B. der Ansteuerung ei- ner Vorrichtung, z.B. eines Fahrzeuges und /oder bei der Identifikation und/oder Au- thetifizierung Vorzugs und vorteilhafterweise jede Vorrichtung eines Nutzers und/oder jede Nutzanwendung, also z.B. Vorrichtungs- und/oder Bauteilelement, wie z.B. ein Fahrzeug, das elektronische Element aufweist, d.h. ein eigenes elektronisches Element aufweist.

Selbstversändlich ist es auch möglich, dass eine Ansteuerung des elektronischen Ele- mentes für ein Fahrzeug erfolgen kann ohne dass der Computer/Rechner des Nutzers, der die Ansteuerung ausführt, ein eigenes elektronisches Element aufweist.

Mit anderen Worten: Wenn ein Nutzer eine Nutzanwendung, z.B. Fahrzeug und/oder einer Mehrzahl von Fahrzeugen von einem exteren Rechner/Computer über eine draht- lose Verbindung ansteuert, weist dieser Rechner/Computer des Nutzers das elektroni- sche Element auf oder ist damit verbindbar. Ebenso weist das Fahrzeug, welches ange- steuert wird, ein eigenes elektronisches Element auf. Zwischen den beiden elektroni- schen Elementen ist eine definierte digitale Kommunikation, mittels eines Hard- wareelementes und/oder Software, vorgesehen, wobei das Hardwareelement und/oder die Software vorzugsweise die Ansteuerungsfünkition und/oder Identifikations- und/oder Authentifizierungsfunktion enthalten oder dafür vorgesehen sind. Dabei kann ein elektronisches Element, je nach Leistungsanforderung, nutzerspezifisch und/oder nutzanwendungsspezifisch, verschiedenartig, d.h. individuell oder costumized ausgebil- det sein und weitere Funktionalitäten aufweisen.

Ein weitere Fall ist es, wenn wenigstens zwei Nutzer und/oder eine Mehrzahl von Nut- zem mit ihren Vorrichtungen, z.B. Smartphones drahtlos verbunden sind. Dabei weist das Smartphone jedes Nutzers jeweils ein eigenes elektronsiches Element auf.

Der Begriff „Ansteuerung“ bedeutet im Sinne der Erfindung auch“ Steuerung“, und/oder„Fernsteuerung“ und/oder„Kontrolle“. Unter dem Begriff„Ansteuerung“ wird verstanden, dass das digitale KFZ Kennzeichen und/oder das elektronische Element eines Fahrzeuges von einem externen Ort, der räumlich von dem digitalen Kennzeichen und/oder dem elektronischen Element ent- fernt ist, angesteuert wird. Dieser Ort befindet sich vorzugsweise ausserhalb des Fahr- zeuges in einer beliebig großen Entfernung. In diesem Fall ist der Begriff„Ansteue- rung“ gleichbedeuitend mit dem Begriff„Fernsteuerung“. Ein Sonderfall ist es, wenn sich der externe Rechner/ Computer bzw. der Ansteuerer oder Fahrer in dem gleichen Fahrzeug befindet und das digitale KFZ Kennzeichen und/oder das elektonische Ele- ment vor dort aus bedient wird. In diesem Fall sind die Begriffe„Ansteuerung“, „Steuerung“ oder „Fernsteuerung“ oder„Kontrolle“ per Definition der Erfindung gleichbedeutend zu verstehen. Der Begriff„extern“ wird so verstanden, dass die beide miteinander kommunizierenden elektronischen Elemente drahtlos und kabellos mitein- ander verbunden sind.

Darüberhinaus entstehen zukunftsweisende, neue Kontrollfunktionen und Steuerungs- möglichkeiten für das STVA in den Bereichen Sicherheit, Umwelt, Verkehrslenkung, Verkehrssicherheit und autonomes Fahren.

So ist es eine weiterere wesentliche Aufagebe der Erfindung eine autonome Verkehrs- lenkung- und/oder Steuerung zu ermöglichen .

Neben den Grundfunktionen lassen zukünftig auch ganz neue Zusatzfunktionen über das digitale Kennzeichen realisieren, wie z.B. ein bundesweites Verkehrsleitsystem über die GPS Erfassung des digitalen KFZ Kennzeichens oder auch durch Vernetzung mit dem Bordcomputer des KFZ kann das Strassenverkehrsamt die Einhaltung von Umweltauflagen kontrollieren ,wie .z.B. Kraftstoff -Verbrauchswerten, Abgaswerten, gemäss der Energieverbrauchskennzeichnung der Hersteller oder Fahrverbote für be- stimmte Zonen aktivieren oder auch sicherheitsrelevante Kontrollen vornehmen wie etwa Geschwindigkeitskontrolle, Gurtpflicht, Abstandskontrolle... etc. über GPS Funk- tion mit automatischer Bussgeldzustellung oder eine Stilllegung des Fahrzeugs einstel- len ( z.B. Display komplett rot mit Text:„Ausser Betrieb“). Über die zentrale Digitali- sierung der KFZ Daten ist zukünftig auch ein internationaler Datenaustausch zwischen einzelnen Ländern z.B. europaweit möglich und/ oder lässt sich europa- / weltweit ver- einheitlichen. (KFZ-Cloud als Speicher)

- Vermehr slenkung durch eingebaute GPS Erkennung, aktuelle Infos an Bordnavi, auto- matische Navisteuerung, Verkehrsleitsystem, Stauminimierung

- Parkleitsystem , Parkhausbelegung,

-Vernetzung mit Car sharing Angeboten

-Zusatzfunktionen KFZ Display: Anzeige von Verkehrsinformationen, Gefahr, Stauen- de, Pannenhilfe, Kommunikation mit anderen Verkehrsteilnehmern....

-Abstandsmessung zum Vorderfahrzeug über Sensor/

-Personenerkennung über Sensor/ Kamera

Auch Themen wie Parkleitsysteme, Parkhausbelegung, Vernetzung mit Car-Sharing Angeboten können zukünftig helfen die Innenstädte verkehrsmässig zu entlasten und den Verkehrsfluss zu optimieren.

Sowohl Automobilbauer und Zulieferbetriebe als auch Unternehmen aus der IT- Bran- che, insbesondere Google, forschen und entwickeln am autonom fahrenden Kraftfahr- zeug. Die Erfindung kann hier im erheblichen Maße zu einer zeitnahen Lösung dieser gesamten Thematik beitragen.

Darüberhinaus entstehen zukunftsweisende, neue Kontrollfunktionen und Steuerungs- möglichkeiten für das STVA in den Bereichen Sicherheit, Umwelt, Verkehrslenkung, Verkehrssicherheit, autonomes Fahren, durch Online Zugriff auf Kamera/ Video ( Live Cam) und Sensorfunktionen des digitalen KFZ, sowie definierter Zugriff auf Bordcom- puter. Der Pkw-Verkehr bringt externe Kosten, insbesondere im Bereich Umweltver- schmutzung und Unfallfolgekosten, mit sich. Hier können Maßnahmen des STVA zur Erhöhung der Verkehrssicherheit dazu beitragen, dass die Zahl der bei einem Verkehrs- unfall getöteten Personen reduziert wird.

Displayinhalte werden von der STVB Blockchaincloud nach Erfassung der Stammdaten des KFZ automatisch auf das KFZ Kennzeichen Display gesendet und laufend aktuali- siert. Den alleinigen, autorisierten Zugriff für das digitale Display hat die regional zu- ständige Strassenvekehrsbehörde ,d.h. hier liegt die Datenhoheit, die das digitale Kenn- zeichen steuert und kontrolliert bzw. aktualisiert oder löscht.

Das Strassenverkehrsamt ist zukünftig die zentrale, datenhoheitliche Kommunikations- und Koodinationstelle zwischen den verschiedenen Usergruppen,

Die Grundidee besteht in der Gründung einer bundeseinheitlichen Blockchain Cloud der Strassenverkehrsbehörde (STVB) gesteuert und kontrolliert von den einzelnen Strassen Verkehrsämtern (STVA), die die Datenhoheit besitzen.

Problemstellung

Die Verbreitung des Internets, das am am 29. Oktober 1969 als Arpanet begann, hat zu umfassenden globalen Umwälzungen in vielen Lebensbereichen geführt. Es trug zu ei- nem Modernisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des globalen Kommu- nikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich ge- führt. Das Internet gilt bei vielen Experten als eine der größten globalen Veränderungen des Informationswesens seit der Erfindung des Buchdrucks mit großen Auswirkungen auf das alltägliche Leben. Im Jahr 2013 Bundesgerichtshof erklärt, dass das Internet zur Lebensgrundlage von Privatpersonen gehört.

Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Internets und durch Anonymität als schwer durchsetzbar angesehen werden. Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsi- cherheiten zumindest de jure beseitigt.

Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicher- heit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeiche- rung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig einge- stuft wurde. Auch international wird die Kontrolle des Internets durch den Staat auf- merksam beobachtet, etwa beim Internet in der Volksrepublik China.

Gerade in dem Nutzen des schnellen, unkomplizierten Datentransfers und der Erfüllung wichtiger organisatorisch-struktureller Aufgaben liegt zugleich auch die Gefahr des In- ternets. Denn Macht bringt immer auch Missbrauch mit sich und so hat sich Cyberkri- minalität zu einer massiven Bedrohung für den Staat bzw. das Staatsrecht und seine Bürger etabliert.

Cyberkriminalität (Cybercrime) ist ein weltweit, wachsendes, ungelöstes Problem, das weder an Landesgrenzen noch vor verschlossenen Türen Halt macht. Sie kann überall stattfinden, wo Menschen Computer, Smartphones und andere IT-Geräte benutzen - in Firmen, Behörden, Universitäten, zu Hause und unterwegs. Die Besonderheit der Cy- berkriminalität besteht darin, dass die Täter nahezu von jedem Ort der Welt aus agieren und ihre Spuren relativ gut verschleiern können. Zudem muss der Tatort nicht zwingend mit dem Taterfolgsort identisch sein. Nicht nur die Zahl der betroffenen Computer und Smartphones steigt, sondern auch die Professionalität der Täter. Es gibt immer mehr sehr gut vorbereitete Cyberangriffe auf ausgewählte Ziele, bei denen das Schadenspo- tenzial für die Betroffenen erheblich ist. Hierzu gehören zum Beispiel Angriffe auf Wirtschaftsuntemehmen oder Kritische Infrastruktureinrichtungen.

Im engeren Sinn werden laut Bundeskriminalamt folgende Handlungen als Cybercrime bezeichnet: Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen,, Computerbetrug, Betrug mit Zugangsberechtigungen zu Kommunikationsdiensten, Computersabotage, Datenveränderung, Fälschung beweiserheblicher Daten , Täuschung im Rechtsverkehr bei Datenverarbeitung^ 270)

Zur Computerkriminalität im weiteren Sinne zählen in Deutschland alle Straftaten, bei denen die EDV zur Planung, Vorbereitung oder Ausführung eingesetzt wird. Diese er- strecken sich mittlerweile auf nahezu alle Deliktsbereiche, in denen das Tatmittel Inter- net eingesetzt wird. Beispielsweise: Alle Ausprägungen digitaler Erpressung, Urheber- und Markenrechtsverletzung, unerlaubte Veranstaltung eines Glücksspiels, der Vertrieb verbotener Substanzen, Verstöße gegen das Verbreitungsverbot oder den Jugendmedi- enschutz, der Austausch von kinderpornographischen Darstellungen, die onlinebasierte Anbahnung eines sexuellen Missbrauches von Kindern - dem sog. Cyber-Grooming oder Gewalt verherrlichender Propaganda (Volksverhetzung) oder die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen, Cyber-Mobbing bis hin zum Cyber-Terrorismus, Cyberspionage, Cyber-Mobbing.

Der Übergang zu Methoden und Verfahren des Cyberwar („Netzkrieg“) ist mittlerweile fließend geworden; im Einzelfall ist durchaus nicht ohne weiteres auszumachen, ob ein Angriff im Netz einschlägig kriminellen Zielen dient oder militärisch bzw. politisch in- tendiert ist ,etwa bei einer weitreichenden Sabotage des stark ITK-abhängigen Finanz- systems oder der Webpräsenzen öffentlicher Einrichtungen im weitesten Sinn. Den Be- obachtungen zufolge professionalisiert sich die„Malware-Branche“ zunehmend, die Angriffe auf Rechner und Rechnemetze werden immer ausgefeilter.

Bedingt durch den Innovationsfluss der Technik wachsen auch die Möglichkeiten, kri- minelle Energien gewinnbringend freizusetzen. An Werbeterror - Belästigungen durch Adware, die sich im Browser als Toolbar oder Add-on einbindet und versucht, z.B. Werbung zu integrieren, hat sich der Intemetuser bereits längst gewöhnt. Auch die Datensammlung durch Datenmonopole wie Google, Facebook, Microsoft wird vom Bürger und von staatlicher Seite geduldet. Gerade Platformen wie das sogenannte Darknet sind ein Nährboden für kriminelle Netzwerke. Derartige, von außen nicht ohne weiteres betretbare, dunkle Paralleluniver- sen können der Planung und Durchführung von Handlungen dienen, die zum Cy- bercrime gehören. Ein Beispiel hierfür ist unter anderem der Austausch und die Ver- breitung kinderpornographischer Inhalte sowie der Kauf von Waffen oder Drogen.

Doch auch abseits solcher Netzwerke treiben Cyberkriminelle ihr böses Spiel, bei- spielsweise durch„Phishing“-Mails, die dazu dienen, sensible Personendaten zu erhal- ten. Insbesondere die Infizierung und Manipulation von Computersystemen durch Vi- ren, und Schadsoftware, wie z.B. Spyware , zur Speicherung von sensiblen Nutzerdaten oder schädliche Virencodes, die Programme und Rechner unbrauchbar machen ist eine gängige Praxis. Mitels Trojanern, auch Malware genannt, oder anderer Programme werden persönliche Daten und Zugangsberechtigungen erfasst. Dadurch kann die Iden- tität des Betroffenen gestohlen werden, was es dem Täter beispielsweise ermöglicht, Bank-Konten zu hacken oder auf Social-Media- Platformen, zum Beispiel Facebook oder Twiter, zuzugreifen. Auch Kyptotrojaner (Ransomware) werden dazu genutzt, sich finanziell zu bereichern. Mittels solcher Malware werden die infizierten Geräte ge- sperrt. Die erneute Freigabe erfolgt dann erst nach der Zahlung eines eingeforderten Lösegeldes. Hier kann beispielsweise der Tatbestand einer Erpressung vorliegen. Tük- kisch sind auch Botnetze, also mehrere infizierte Geräte, die durch den Angreifer aus der Ferne kontrolliert werden können.

IT Experten gehen davon aus, dass die Onlinesicherheit, Intemetsicherheit, und IT- Si- cherheit, d.h. der Schutz vor Intemetkriminalität, auf Sicht weder machbar, noch be- herrschbar ist. Im Gegenteil: Es ist mit einer Zunahme der Intemetkriminalität zu rech- nen.

Von daher besteht dringender Handlungsbedarf die Informationssicherheit von informa- tionsverarbeitenden und -lagernden (technischen oder nicht-technischen) Systemen si- cherzustellen, mit den Schutzzielen : Vertraulichkeit, Verfügbarkeit und Integrität Die Informationssicherheit, d.h. der Schutz vor Gefahren bzw. Bedrohungen, und die Ver- meidung von wirtschaftlichen Schäden und die Minimierung von Risiken durch Cyber- kriminalität ist eine staatliche Aufgabe von höchster Priorität.

Zielsetzung des Staates muss es sein das Recht auf informationelle Selbstbestimmung effektiv und dauerhaft zu gewährleisten, durch innovative Datenschutzverfahren- und Systeme, die als Datenschutzrecht gesetzlich zu verankern sind. Dazu sind radikale Veränderungen im Datenschutzrecht notwendig.

Datenschutz muss verstanden werden als Schutz vor missbräuchlicher Datenverarbei- tung und Schutz des Rechts auf informationeile Selbstbestimmung, Schutz des Persön- lichkeitsrechts bei der Datenverarbeitung und auch Schutz der Privatsphäre. Daten- schutz ist das Recht, dass jeder Mensch grundsätzlich selbst darüber entscheiden darf, wem wann welche seiner persönlichen Daten zugänglich sein sollen. (Datenhoheit) Der Wesenskem eines solchen Datenschutzrechts besteht dabei darin, dass die Machtun- gleichheit zwischen Organisationen und Einzelpersonen unter Bedingungen gestellt werden wird. Der Datenschutz muss der in der zunehmend digitalen und vernetzten In- formationsgesellschaft bestehenden Tendenz zum sogenannten gläsernen Menschen, dem Ausufem staatlicher Überwachungsmaßnahmen (Überwachungsstaat) und der Ent- stehung von Datenmonopolen von Privatuntemehmen entgegenwirken.

Das Recht auf informationeile Selbstbestimmung ist im Recht Deutschlands das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner perso- nenbezogenen Daten zu bestimmen. Es ist nach der Rechtsprechung des Bundesverfas- sungsgerichts ein Datenschutz-Grundrecht, das im Grundgesetz für die Bundesrepublik Deutschland nicht ausdrücklich erwähnt wird. Der Vorschlag, ein Datenschutz- Grundrecht in das Grundgesetz einzufügen, fand bisher nicht die erforderliche Mehr- heit. Personenbezogene Daten sind jedoch nach Datenschutz- Grundverordnung und nach Art. 8 der EU-Grundrechtecharta geschützt.

Da jedoch kein Land dieses grenzüberschreitende Problem für sich alleine lösen kann, ist eine gute internationale Zusammenarbeit unabdingbar. Aufgabe der Erfindung

Aufgabe der Erfindung ist es, sämtliche und jedwedes der oben dargestellten Computer / Internet und IT- Sicherheits- Probleme zu lösen, durch eine technisch, innovative digi- tale IT-Systemstruktur bestehend aus einer Anordnung von Hardware- und Software- komponenten, sowie einem damit verbundenem Verfahren zur Anwendung dieser Hardware und Softwarekomponenten. Insbesondere ist es Aufgabe der Erfindung eine Verschlüsselung der neuen IT Systemstruktur zur Verfügung zu stellen, die eine 100% Datensicherheit bietet und keinen Missbrauch durch Cybercrime zulässt.

Beschreibung der Erfindung

Die Erfindung schlägt eine neue IT Systemstruktur vor, darauf basierend , dass zu- nächst eine autarke, zentrale neue IT Systemstruktur in Form einer Cloud zur Verfü- gung gestellt wird, d.h. ein Rechnemetzwerk, mit onlinebasierten Speicher- und Ser- verdiensten zum Cloud Computing mit dem Ziel ein alternatives Internet zum World- wide Web zu gründen und zu betreiben.

Cloud Computing (deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstel- lung von IT-Infrastruktur wie beispielsweise Speicherplatz, Rechenleistung oder An- wendungssoftware als Dienstleistung über das Internet.

Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT- Infrastruktu- ren über ein Rechnemetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.

Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spann- weite der im Rahmen des Cloud Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Plattformen und Software. Das Konzept ist es, eine zentrale, von staatlicher Stelle gesteuerte Cloud, nachfolgend als„Eurodata“ bezeichnet, zu gründen, in Form eines Rechner- Netzwerkes, mit der Funktion eines zunächst auf europäischer Ebene (EU Länder) betriebenen Internets bzw. Intranets als geschlossene, IT Systemstruktur für Europa, abgekoppelt vom World Wide Web, mit der Option, dass zukünftig weitere -bis alle Länder weltweit darin auf- genommen werden können. Zielsetzung ist es das World Wide Web zukünftig abzulö- sen und durch das sichere„Eurodata“ Netz, welches sich dann zum„Worldata“ Netz weiterentwickelt, zu ersetzen.

Die Cloud„Eurodata“ dient dazu, zukünftig, sämtliche, in Europa erzeugten, Daten und Informationen und Transaktionen jedes einzelnen Bürgers zentral sicher zu speichern, zu kontrollieren und zu verwalten, beruhend auf dem Prinzip der informationellen Selbstbestimmung, d.h. jeder einzelne Mensch/ Bürger entscheidet grundsätzlich selbst darüber, wem und wann und welche seiner persönlichen Daten zugänglich sein sollen. Die Datenhoheit hegt beim Bürger. Die Daten werden geheim gespeichert und aus- schliesslich vom jedem EU Bürger persönlich kontrolliert und verwaltet Der Bürger entscheidet über die Teilung von Daten mit Dritten und Zugriffserlaubnisse, die er in seinem Nutzerprofil definiert und zulässt. Zudem gibt es streng reglementierte Zugriffs- erlaubnisse auf definierte Grunddaten des einzelnen Bürgers z.B. für staatlich, behördli- che z.B. Finanzamt, polizeiliche etc. Kontrollzwecke. Nach dem Tod werden die Daten für immer gelöscht. Beispiele für Daten und Transaktionen: Persönliche Daten: Tele- fonnummer, Mobilnummer, Personalausweis, Führerschein, Bank-Kreditkarten, Versi- cherungsdaten, Krankenkasse, Arztbesuche , Verträge, Steuerliche Daten, Einkünfte, Kapitalerträge, Kindergarten, Schule, Beruf, Ausbildung, Arbeitgeber, Zeugnisse, Di- plom, Selbstständiger, Arbeitsamt, geschäftliche Transaktionen Verträge, Bezahlen im Internet und im Einzelhandel, Speicherung von Privatdaten, z.B. Fotos, Privatdokumen- ten, Verträgen u.v.a.m. Der Vorteil ist eine Vereinfachung des Lebens für jeden einzel- nen Bürger und der Staatsbürokratie. Alle relevanten, persönlichen 100% gesichert, si- cher verwahrt. Und jederzeit zugänglich. Nach Übertragung aller bisherigen Daten in die Eurodata Cloud wird jedes Unterneh- men, (Datenmonopole wie Google, Facebook, Microsoft etc.) gesetzlich verpflichtet al- le perönlichen Daten zu löschen. Das Konzept sieht vor alle in der Vergangenheit ge- speicherten Daten auf Null zu setzen.

Das gleiche Prinzip gilt auch für den gesamten, staatlich, öffentlichen und privatwirt- schaftlichen-/ gewerblichen Informations - und Datenverkehr, sowie für die Datenspei- cherung die zukünftig über die Cloud„Eurodata“ erfasst und abgewickelt wird. Ziel ist es jedwede Information zu zentralisieren und sicher, informationell selbstbestimmt, durch die„Eurodata“ Cloud zu steuern.

Die Sicherheit der„Eurodata“ Cloud wird dabei gewährleistet durch das Blockchain- Verfahren, einem dezentral geführten Buchführungssystem, unveränderbar, falschungs- und manipulationssicher.

Das Verfahren der Blockchain, eine kryptografischen Verkettung in einem dezentral ge- führten Buchführungssystem, ist bisher bekannt als die technische Basis für Kryp- towährungen (Bitcoin), kann aber darüber hinaus in verteilten Systemen zur Verbesse- rung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Syste- men beitragen. Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeit- stempel und Transaktionsdaten.

Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort. Es muss sicher- gestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin„Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsensprotokoll, ein algorithmisches Verfahren zur Abstim- mung. Durch krypto graphische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fal- schungs- und manipulationssicher.

Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestal- tung des Vertraulichkeitsgrads. Durch die Nutzung digitaler Signaturen sind Informa- tionen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilneh- mende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.

Die Blockchain wird auch genutzt, wenn ein Buchführungssystem dezentral geführt wird und der jeweils richtige Zustand dokumentiert werden muss, weil viele Teilnehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed- Ledger- Technologie (dezentral geführte Kontobuchtechnologie) oder DLT bezeichnet. Was do- kumentiert werden soll, ist für den Begriff der Blockchain unerheblich. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als rich- tig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulie- ren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der späteren Transaktionen haben, würden eine manipulierte Kopie der Blockchain daran erkennen, dass sie Inkonsistenzen in den Berechnungen aufweist.

Der dezentrale Konsensmechanismus ersetzt die Notwendigkeit einer vertrauenswürdi- gen dritten Instanz zur Integritätsbestätigung von Transaktionen.

Die Dezentralisierung der IT durch die Eurodata„Cloud“ im Allgemeinen und Block- chain im Speziellen bringt für den gesamten, privaten, staatlichen-, öffentlichen und wirtschaftlichen-/ gewerblichen Informations - und Datenverkehr erhebliche Vorteile: - unveränderbare, falschungs- und manipulationssichere Daten aus Bürgersicht:

-Abschaffung der Cyber- und Wirtschaftskriminalität, Betrug, Steuerhinterzie- hung,... etc.

-Wertvolle Informationsdaten für gemeinnützige, gesellschaftliche und kulturelle Zwecke in den Bereichen Gesundheit , Medizin, Umwelt etc.

-Transparenz sämtlicher Prozesse der Wirtschafts.- und Finanzwelt durch staatliche Kontrollmöglichkeiten mit„Eurodata“

-Schutz großer Datenmengen mittels Verschlüsselung und Zugriffsverwaltung;

-Möglichkeit, große Datenmengen untemehmensübergreifend zu sammeln und analy- sieren einfachere Verifizierung von Datenbezugspunkten

-automatische Aufspüren von Schwachstellen in der Lieferkette, im Zahlungsverkehr und anderen Geschäftsprozessen

-Reduktion oder Vermeidung von unnötigen Kosten für die IT-Infrastrukur

-Reduktion der Kosten für interne und externe Finanztransaktionen, Finanzreporting und Verwaltung

- Schaffung eines Mechanismus zur Verbesserung des Vorstandsreportings und des re- gulatorischen Reportings

-Beschleunigung des Jahresabschlusses. Dieser radikale Schritt der„Euro data“ Cloud Einführung auf Basis des Blockchain - Verfahrens ist notwendig und altemativlos, um die zuvor dargestellte nicht beherrsch- bare und nicht lösbare Sicherheitsproblematik des Internets (World Wide Web) endgül- tig zu beenden. Dies erfordert eine grundlegende, neue europäische Rechtsregelung und Gesetzgebung im Bereich der Informations-und Datensicherheit, die jeden Bürger und jedes Unternehmen / Institution gesetzlich zur Teilnahme an„Eurodata“ verpflichtet.

Für die praktische Durchführung des Cloud Computings mit“Eurodata“ ist es notwen- dig, dass jeder Bürger/ Teilnehmer bzw. jedes Unternehmen/ Institution eine Zugangs- berechtigung erhält , mittels eines verschlüsselten, falschungs- und manipulationssiche- ren Verfahrens zur Identifizierung und Authentifizierung.

Der Kern der Erfindung schlägt die Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Computer-, Smartphone- ,PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Su- percomputer, Vorrichtungs-, und /oder Bauteilelement mit Verbindungs- und

/oder Identifikations- und /oder Zuordnungs- und/oder Authentifizierungsfunktion Nut- zers im Netz, insbesondere Funknetz, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit mindestens einem Hardwarelement und/ oder einer (integrierten) Software, vorzugsweise zur Bilderkennung, insbesondere Iriserken- nung, aufweist.

Die Erfindung sieht vor, den Irisscan als Erkennungsverfahren einzusetzen, als Zu- gangsberechtigung zur„Eurodata“ Cloud. Der Irisscan ist eine wissenschaftlich aner- kannte, sichere Methode zur Identifizierung eines Menschen. Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Per- sonen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Au- ges aufgenommen, mit algorithmischen Verfahren die charakteristischen Merkmale der jeweiligen Iris identifiziert, in einen Satz numerischer Werte (Merkmalsvektor, engl. „Template“) umgerechnet und für die Wiedererkennung durch einen Klassifizierungs- algorithmus wie z. B. ein Neuronales Netz gespeichert bzw. mit einem oder mehreren bereits gespeicherten Templates verglichen. Kommerzielle Erkennungsverfahren erfas- sen etwa 260 individuelle optische Merkmale der Iris. Dazu ist notwendig, dass jeder Bürger gesetzlich verpflichtet wird an einem amtlichen Irisscan teilzunehmen, z.B. des rechten Auges, der dann als Daten und/oder Bilddatensatz in der„Eurodata“ Cloud für die Identifizierung jedes einzelnen Bürgers gespeichert wird. Unter Biometrie wird die Anwendung mathematischer Methoden zur zahlenmässigen Erfassung, Planung, Analy- se und Auswertung von Experimenten vorzugsweise in der Biologie, Medizin und Landwirtschaft verstanden Als weitere Sicherheitsstufe für die Zugangsberechtigung zur„Eurodata“ Cloud schlägt die Erfindung ein sicheres Verschlüsselungsverfahren vor, bei dem ein Identitätscode für jeden einzelnen Bürger mit einer Software generiert wird, der mit dem Irisscan in der„Eurodata Cloud“ digital verknüpft wird. Der Identi- tätscode wird durch die Software anonym und für jedermann streng geheim generiert und dem amtlichen Irisscan jedes einzelnen Menschen / Bürgers als Verknüpfüng zuge- ordnet und ist ausschliesslich in der Eurodata Cloud gespeichert. Das Sicherheitskon- zept sieht vor, das jedem Menschen / Bürger bei Geburt dieser Identitätscode von staat- licher Seite einmalig zugeordnet wird als lebenslanger Identitätscode, der gleichzeitig Passwordfunktion übernimmt, für alle Angelegenheiten des Lebens/ digitalen Lebens von A-Z ( Ausweisfunktion, Einkäufe im Internet, Arzt, Versicherungen... etc.) als ein- ziges lebenslanges Password, der nur ist nur gültig ist in Verknüpfung mit einer aktuel- len Iriserkennung und Irisidentifikation jedes einzelnen Bürgers.

Die Erfindung sieht vor, dass mindestens einen Verschlüsselungscode für die Identifi- zierung eingesetzt wird. Weiterhin ist vorgesehen, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.

Das bedeutet mathematisch, dass es 89 hoch 8 Möglichkeiten der Bildung eines Codes/ Passwortes gibt, was im mathematischen Ergebnis unendlich ergibt. Ein deratiger Code ist zu 100% sicher, da er nicht entschlüsselt werden kann, da die Rechenzeit beipiels- weise mit einem Brute-Force-Angriff durch einen Hacker unendlich lang ist. Im Ergebnis ist der Identitätscode/ Password anonym und absolut geheim in der Eu- rodata Cloud gespeichert und ist niemandem, selbst dem einzelnen Bürger nicht, be- kannt.

Vorteil: Das bisherige Password Chaos durch immer neue, geänderte und vergessene Passwörter im Internet entfällt vollständig und das Password muss nicht aufgeschrieben oder auswendig gelernt werden da es nur in Verbindung mit einem aktuellen Irisscan gültig ist.

Weiterhin sieht die Erfindung ein Verfahren vor mit dem die Zugangsberechtigung zur „ Eurodata“ Cloud jedes einzelnen Bürgers sicher ausgeübt werden kann. Damit kann jeder Bürger z.B. Daten speichern, im Internet bezahlen etc.

Dazu wird von staatlicher Seite ein elektronisches Element, genannt Omnicard, mit Prozessor- und Speicherfunktion für jeden einzelnen Bürger mit dem individuellen Identifijkationscode des Bürgers konfiguriert, bereitgestellt. Dieses elektronische Ele- ment wird zum Beispiel in einen Rechner, z.B. Smartphone eingebaut. Das Elektroni- sche Element (Omnicard) hat die Funktion einer SIM Karte, die sich über den Irisscan des Bürgers automatisch mit der Eurodata Cloud verbindet und bei Erkennung des Bür- gers den Zugang bzw. eine Transaktion freischaltet. Dazu ist notwendig, dass es zu- künftig nur noch ein einziges, staatlich gesteuertes Kabel und Funknetz gibt und auch die Herstellung und der Einbau des elektronischen Elements ( Omnicard ) in z.B. Com- puter-, Smartphone-, PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook- , Großrechner, Moni tore , Displays oder / und in sonstige Vorrichtungs-, und /oder Bau- teilelemente , unter staatliche Kontrolle gestellt wird, beispielsweise durch staatlich zer- tifizierte Unternehmen.

Die Erfindung sieht weiter vor, das die Iriserkennung über ein Hardwarelement, vor- zugsweise durch eine Kamera und /oder einen Scanner erfolgt, der in das elektronische Element integriert wird und /oder in Verbindung damit steht. Weiter ist vorgesehen, dass das elektronische Element mit einer vorkonfigurierten staatlichen Software ausge- stattet ist wird und /oder in Verbindung damit steht, die mindestens ein Programm zur Bilderkennung, insbesondere Iriserkennung, aufweist.

Als Identifizierung beispielsweise zum Bezahlen im Supermarkt, erstellt der Bürger mit seinem Smartphone über die Omnicard- Software/ App und die Kamera einen Irisscan, vorzugsweise des rechten Auges, wodurch automatisch eine Verbindung zur„Eurodata“ cloud hergestellt wird, wo der aktuelle Irisscan, z.B. durch eine Bilderkennungssoftware mit dem amtlich gespeicherten Irisscan abgeglichen wird, und mit dem Identifikations- code verknüpft ist und bei Erkennung eine Freischaltung der Bezahlung erfolgt. Damit solche Transaktionen absolut sicher sind, erstellt die Omnicardsoftware einen aktuellen Zeitstempel des Irisscans, der nur begrenzte Zeit gültig ist, z.B. 9 Minuten. Dadurch wird ein Missbrauch durch z.B. durch Hackerangriffe mit gefälschten Irisscans ausge- schlossen, da ausschliesslich eine Kamerauafnahme über die Omnicard Software und Kamera mit Zeitstempel akzeptiert wird.

Die Erfindung schlägt vor, dass die Omnicard Software/App neben der Iriserkennung weitere Programme aufweist. Die Omnicard App enthält beispielsweise folgende Funk- tionen:

1.Scanner, Camera Software für Iris-identifizierung

2. Geschäftliche Transaktionen und Einkäufe, Bezahlen im Internet und Einzelhandel 3. Speicher und Verwaltungsprogramm für alle digitalen Angelegenheiten des Bürgers ^Einstellungen des Nutzerprofils, ( z.B. Teilen von Daten mit Dritten)

5. Kommunikationssoftware, Email, Eurotalk ( wie whatsapp)

6. Gemeinschaftsdatenbank mit Zugriff für Bürger, Steuern und Abgaben - Gesundheit , Umwelt und Ökologie , Sicherheit, Presse etc.

Das gleiche Prinzip gilt auch für den gesamten, staatlich, öffentlichen und wirtschaftli- chen-/ gewerblichen Informations - und Datenverkehr, sowie für die Datenspeicherung die zukünftig über die Cloud„Eurodata“ erfasst und abgewickelt wird. Dazu wird jedes in Europa agierende Unternehmen zur Teilnahme an der Eurodata Cloud gesetzlich verpflichtet. Wer nicht teilnimmt hat keine Geschäftsberechtigung und schliesst sich selber aus. Zur eindeutigen Zuordnung von Verantwortlichkeiten erfolgen sämtliche Transaktionen in diesem Bereichen auschliesslich über den Identitätscode jeden einzel- nen Bürgers verknüpft mit seiner Funktion z.B. als Angestellter eines Unternehmens, im staatlichen/ öffentlichen Dienst, z.B. Staatsregierung, Polizei, Behörden z.B. Finanz- amt, Politiker... etc., Hier schlägt die Erfindung vor eine Datenbank Struktur mit Zu- griffsberechtigungen für die verschiedenen Nutzergruppen zur Verfügung zu stellen. Insebesondere in die Besteuerung von Internet -Unternehmen wie Google, Facebook, Microsoft etc. kann dadurch gesetzlich neu geregelt und kontrolliert werden.

Mit anderen Worten schlägt die Erfindung als technischen Kern bzw. Beitrag die Ver- wendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Computer-, Smartphone-,PDA-, Tablet-, PC-, Server-, Spielkonso- len-, Netbook-, Notebook-, Großrechner, Supercomputer, Monitor, Display, Vorrich- tungs-, und /oder Bauteilelement mit Verbindungs- und /oder Identifikations- und /oder Zuordnungs- und/oder Authentifizierungsfimktion eines Nutzers im Netz, insbesondere Funknetz, dadurch gekennzeichnet, dass das elektronische Element eine digitale Ver- knüpfung mit mindestens einem Hardwarelement und/ oder einer ( integrierten) Soft- ware, vorzugsweise zur Bilderkennung, insbesondere Iriserkennung, aufweist.

Nach meiner Einschätzung ist eine Einführung der Omnicard im Jahre 2025

Es folgen zahlreiche Ausftihrungsbeispiele für die Verwendung des elektronischen Elementes (E) und Begriffsdefinitionen für die Erfindung. Weitere Ausführungsformen für die Erfindung gemäß der folgenden Beschreibung sind:

Weitere Ausfuhrungsformen und Begriffsdefinitionen für die Erfindung

1.Computer

Ein Computer [kom'pju:tn] oder Rechner (veraltet elektronische Datenverarbeitungsan- lage) ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell program- mierbaren Computers. Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte die- ser Art. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem eng- lischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hatte.

Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Da- ten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche ver- arbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.

Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in speziali- sierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsge- räten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenauto- maten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in„Fahrassistenten“ diverse Manöver selbst.

Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Compu- ter (engl für Persönliche Computer, als Gegensatz zu von vielen genutzten Großrech- nern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Pri- vatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.

Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Rechner ist ein Digitalrechner, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Text- Z eichen); er ist ein Analogrechner, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom).

Heute werden fast ausschließlich Digitalrechner eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Di- gitalrechner werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hard- ware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.

Ein Digitalrechner besteht zunächst nur aus Hardware. Die Hardware stellt erstens ei- nen Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe ab gerufen werden können. Zweitens verfugt das Rechenwerk der Hardware über grundlegende

Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung. Ein Digitalrechner kann beispielsweise zwei Zah- len addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die eingangs erwähnte Turing- Maschine abgebildet; die Turing- Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.

Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Be- rechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digi- talcomputer hat sich seit seinen Ursprüngen in der Mitte des Jahrhunderts nicht wesent- lich verändert, wenngleich die Details der Technologie erheblich verbessert wurden. Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Rege- lungstechnik), sind heute aber fast vollständig von Digitalcomputem abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digita- len Computer kombinierten.

Mögliche Einsatzmöglichkeiten für Computer sind:

-Mediengestaltung (Bild- und Textverarbeitung)

-Verwaltungs- und Archivierungsanwendungen

-Steuerung von Maschinen und Abläufen (Drucker, Produktion in der Industrie durch z. B. Roboter, eingebettete Systeme)

-Berechnungen und Simulationen (z. B. BOINC)

-Medienwiedergabe (Internet, Fernsehen, Videos, Unterhaltungsanwendungen wie - Computerspiele, Lernsoftware)

-Kommunikation (Chat, E-Mail, soziale Netzwerke)

-Softwareentwicklung

Hardwarearchitektur Das heute allgemein angewandte Prinzip, das nach seiner Be- schreibung durch John von Neumann von 1946 als Von-Neumann-Architektur bezeich- net wird, definiert für einen Computer fünf Hauptkomponenten:

-das Rechenwerk (im Wesentlichen die arithmetisch-logische Einheit (ALU)),

-das Steuerwerk,

-die Buseinheit,

-das Speicherwerk sowie

-die Eingabe-/ Ausgabe werk(e).

In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Bau- stein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozes- sor) Der Speicher ist eine Anzahl von durchnummerierten, adressierbaren„Zellen“; jede von ihnen kann ein einzelnes Stück Information aufnehmen. Diese Information wird als Bi- närzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt.

Bezüglich des Speicherwerks ist eine wesentliche Designentscheidung der Von- Neu- mann-Architektur, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicher- bereich). Demgegenüber stehen in der Harvard-Architektur Daten und Programmen ei- gene (physikalisch getrennte) Speicherbereiche zur Verfügung. Der Zugriff auf die Speicherbereiche kann parallel realisiert werden, was zu Geschwindigkeitsvorteilen führt. Aus diesem Grund werden digitale Signalprozessoren häufig in Harvard- Architektur ausgeführt. Weiterhin können Daten-Schreiboperationen in der Harvard- Architektur keine Programme überschreiben (Informationssicherheit).

In der Von-Neumann-Architektur ist das Steuerwerk für die Speicherverwaltung in Form von Lese- und Schreibzugriffen zuständig.

Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zah- len) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Ver- gleich verwenden oder in eine andere Speicherzelle schreiben kann.

Die Ein-/ Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzu- zeigen.

Softwarearchitektur

Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktions- prinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiter- bahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den„unbedingten Sprung“).

Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Inter- pretieren einer gedrückten Tastaturtaste als Buchstabe„A“ und damit als Zahl„65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens„A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste„A“ gedrückt hat).

In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von ande- ren Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode - jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.

Arten

Basierend auf Arbeitsweise des Computers

-Analogrechner

-Digitalrechner

-Hybridrechner

Basierend auf der Größe

-Smartphone

-Personal Digital Assistant oder PDA, waren die Vorläufer der Smartphones.

-Tabletcomputer

-Micro Computer (veraltet) -Eingebetetes System, z. B. im Auto, Fernseher, Waschmaschine usw.

-Einplatinencomputer, z. B. Raspberry Pi, billigste, sehr kleine Computer. Wer- den meist als eingebetete System verwendet.

-Personal Computer oder PC, hier als Desktop-Computer oder auch Arbeits- platzrech- ner verstanden.

-Hostrechner oder auch Server, eingebunden in einem Rechnernetz, meist ohne eigenen -Display, Tastatur usw.

-Thin Client sind Rechner, die nur in Zusammenarbeit mit einem größeren Rechner, meist Server, richtig funktionieren.

-Heimcomputer (veraltet), der Vorläufer des PC.

-Spielkonsole

-Netbook, ein kleines Notebook.

-Laptop oder Notebook

-Mini Computer (veraltet)

-Superminicomputer (veraltet)

-Mikrocomputer (veraltet)

-Mainframe Computer oder Großrechner.

-Super Computer, die schnellsten Rechner ihrer Zeit, brauchen den Platz einer Turnhal- le, die Energie einer Kleinstadt und sind sehr teuer.

Zukunftsperspektiven

Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biolo- gischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physika- lischen Modellen (Quantencomputer).

Ein großer Megatrend sind derzeit (2017) die Entwicklung künstlicher Intelligenzen. Bei diesen simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbst- lernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Da- ten trainiert werden ähnlich einem Gehirn. Der Zeitpunkt an dem künstliche Intelligenz die menschliche Intelligenz übertrifft nennt man technologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, einge- setzt (s. Anwendungen der künstlichen Intelligenz). Hans Moravec bezifferte die Re- chenleistung des Gehirns auf 100 TeraflopsKurzweil auf 10.000 Teraflops. Diese Re- chenleistung haben Supercomputer bereits deutlich überschritten. Zum Vergleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops. (s. techno- logische Singularität)

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomie Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.

Die weltweite Websuche nach dem Begriff„Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.

2. Hardware

Hardware [/'haid.w o/ bzw. /'haid , wea7 (AE)] (gelegentlich mit„HW“ abgekürzt) ist der Oberbegriff für die physischen Komponenten (die elektronischen und mechanischen Bestandteile) eines datenverarbeitenden Systems, als Komplement zu Software (den Programmen und Daten).

Wortherkunft

Ursprünglich ist das englische hardware ungefähr bedeutungsgleich mit

„Eisenwaren“ und wird heute im englischsprachigen Raum noch in diesem Sinne ver- wendet - also nicht nur für Computer hardware.

Abgrenzung Hardware und Software

In einem Computersystem kommen Hard- und Softwarekomponenten zum Einsatz. Hardware ist vereinfacht ausgedrückt der Teil eines Computers, den man anfassen kann: Jede einzelne darin verbaute Komponente, vom einfachen Kondensator bis hin zur komplett bestückten Platine, das Gerät als Ganzes sowie sein Zubehör wie bei- spielsweise Maus, Tastatur, Bildschirm und Drucker. Software ist Information und kann nicht angefasst werden, da sie immateriell ist. Sie ist unterteilbar in Programme und Daten und bestimmt, was ein Computer tut und wie er es tut (in etwa vergleichbar mit einem Manuskript). Die Hardware (das Gerät selbst) führt Software aus (arbeitet sie ab) und setzt sie so in die Tat um.

In den 1950er Jahren wurde Software auf Lochstreifen gespeichert. Jede mögliche Lochposition steht für ein Bit. Die Löcher sind jedoch nicht die Software; sie sind Teil der Hardware. Auch moderne Datenträger sind nicht die Software, sondern immer Hardware, die Software lediglich enthalten.

Ebenso wie Information kann Software nicht existieren ohne physische Repräsentation: Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur. Als Analogie dazu ist es für eine ,Oper‘ nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist. Auch hier enthalten die- se Medien die Oper nur.

Das hard- und softwaregesteuerte Arbeitsprinzip

Es braucht nicht zwingend eine Software, um eine Hardware in ihrem Arbeitsablauf au- tomatisiert zu steuern. Selbst komplexe Arbeitsabläufe lassen sich komplett in Hard- ware umsetzen - das hardwaregesteuerte Arbeitsprinzip. Als Beispiel sei eines der frü- hen Spielhallenspiele genannt, das von Atari 1976 produzierte Spiel Breakout.

Das komplette„Programm“ (der Ablauf, die Logik) bestand ausschließlich aus Hard- ware, bildlich gesehen aus„fest verdrahteten Schalttafeln“.

Auch in modernen Geräten werden automatisierte Arbeitsabläufe teilweise direkt in der Hardware implementiert, in Form von Logikgattem. Sie setzen einen bestimmten Ab- lauf von Instruktionen um. Ihre Funktion ist fest durch die Struktur der Hardware vor- gegeben und kann nachträglich kaum mehr verändert werden. Für ein Update auf neue Funktionen oder zum Beheben von Fehlem muss die Hardware (zumindest teilweise) ausgetauscht, ergänzt oder durch anderweitige physische Eingriffe angepasst werden. Dafür ist die Verarbeitungsgeschwindigkeit in der Regel höher und der Energiever- brauch geringer als bei einer Softwarelösung.

Soll ein Arbeitsablauf ohne physische Eingriffe anpassbar sein, so kommt das soft- waregesteuerte Arbeitsprinzip zum Tragen: Dafür erhält die Hardware einen Prozessor. Dieser ist in der Lage, Software„zu verstehen“, sie abzuarbeiten.

Software kann wiederum einfach angepasst und sogar komplett ausgetauscht werden, ohne die Hardware dafür verändern zu müssen. So lassen sich auf ein und demselben Gerät nahezu beliebige Anwendungen nutzen.

Komplexere Hardwaresysteme enthalten oft eine Kombination aus hardware- und soft- waregesteuerten Komponenten.

Im obigen Beispiel verwendete das von Atari produzierte Spielhallengerät von 1976 keinen Prozessor. Bereits ein Jahr später wurde das Spielprinzip auf ein prozessorge- steuertes Gerät übertragen, den Computer. Seither gab es das Spiel auch als Software. Das Computerspiel bestand nicht mehr aus„verdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weite- ren Informationen (den Daten), die gemeinsam auf einem Datenträger gespeichert und von dem Computer ausgewertet wurden.

Unterteilung

Hauptplatine (englisch Mainboard)

Eine mögliche Realisierung bzw. Aufteilung der Hardware ist die 1945 vorgestellte Von-Neumann- Architektur. Sie unterscheidet abstrakt zwischen Steuerwerk, Rechen- werk („ALU“), Speicherwerk und Eingabe-/ Ausgabewerk (Peripheriegerät). Heutzutage ist eine solche Aufteilung zum Verständnis der Struktur eines Rechners immer noch sinnvoll und notwendig, obwohl mittlerweile bei modernen Prozessoren viele Funktio- nen in einem Hardwarechip integriert sind, etwa: -Steuerwerk zur ALU und zur Befehlskodierung gleich mehrere Male zur Paral- lelverarbeitung;

-Steuerwerk MMU zur Speicherverwaltung;

-der Cache als Teil des Speicherwerks,

-die Steuerung für ein Bus-System, das interne und externe Komponenten miteinander verbindet.

Bei sogenannten embedded Prozessoren (für z. B. PDAs oder Waschmaschinen) findet man im gleichen Gehäuse noch ein Ein-/ Ausgabewerk in Form serieller Schnittstellen (z. B. USB), digitalem I/O (Input/Output) z. B. für einen Touchscreen und analogem I/O für z. B. Lämpchen oder E-Motoren.

Noch stärker integriert sind sogenannte SoC (System on a Chip) für z. B. Smartphones, die weitere Komponenten integrieren, bis hin zu Arbeitsspeicher (RAM) und Flash- Speicher.

Zur Computer-Hardware gehören die PC -Komponenten:

-Die Grundbestandteile der Rechnerarchitektur: Hauptplatine (auch Motherboard oder Mainboard genannt) mit Chipsatz (für IO), Prozessor und Arbeitsspeicher (RAM) -Massenspeicher: Laufwerke (Festplattenlaufwerk, Flash-Speicher, CD-ROM- Lauf- werk, DVD-Laufwerk, Zip-Laufwerk, Jaz-Laufwerk, ...) und Speicherme- dien

-Erweiterungskarten (Grafikkarte, Soundkarte, Netzwerkkarte, TV-Karte, ISDN- Karte, USB-Karte, PhysX-Karte, ...)

-Netzteil, Gehäuse, Lüfter

-Peripheriegeräte:

- Ausgabegeräte (Drucker, Bildschirm, Beamer, Lautsprecher, ...)

-Eingabegeräte (Tastatur, Maus, Joystick, ...)

-Einlesegeräte (Mikrofone, Kartenlesegeräte, verschiedene Arten von Scannern,

...)

Alle diese Peripheriegeräte und Baugruppen eines Computers sind großteils mit logi- schen Schaltungen aufgebaut. Häufig ist Hardware mit einer FCC-Nummer versehen, die eine eindeutige Identifizie- rung des Herstellers erlaubt.

3. Bildschirm

Ein Bildschirm (auch Monitor bzw. englisch Screen oder Display) ist eine elektrisch angesteuerte Anzeige ohne bewegliche Teile zur optischen Signalisierung von verän- derlichen Informationen wie Bildern oder Zeichen. Der Bildschirm kann dabei ein ei- genständiges Gerät oder Teil eines Gerätes sein.

Begriffsabgrenzung

Die Begriffe Bildschirm, Monitor, Screen und Display werden im Deutschen häufig synonym verwendet; für die beiden letztgenannten englischer Herkunft gibt es gleich- wohl sprachliche Unterschiede. So ist die Darstellung eines Bildschirms eigentlich di- rekt auf dem Gerät sichtbar. Monitor (vergleiche monitoring für, Überwachung 1 ) wer- den demnach allein Bildschirme genannt, die als Bauteile und Peripheriegeräte einge- setzt werden.

Im Gegensatz dazu wird die Projektionsfläche eines Projektors, etwa die Leinwand, im Englischen ebenfalls als screen bezeichnet (in etwa , Schirm 1 ). Hingegen werden im Deutschen wiederum auch alle Anzeigegeräte im weiteren Sinne Display genannt (in etwa , Anzeige 1 ), zum Beispiel Flip-dot-Displays.

Geschichte

Als Ausgabegerät kommen Bildschirme auf Basis von Braunschen Röhren seit den 1930er Jahren zum Einsatz, zunächst mit vektorieller Ansteuerung (siehe Vektorbild- schirm). Die später aufgekommenen Videoterminals verwenden vorwiegend Rastergra- fiken zum Aufbau des Bildes. Bei den meisten Videoterminals lassen sich die einzelnen Bildpunkte nicht direkt ansprechen, vielmehr übernimmt ein Zeichengenerator (charac- ter Prozessor) die Darstellung von einzelnen Zeichen; die Anzahl und das Aussehen darstellbarer Zeichen sind somit vorgegeben. In den frühen 1980er Jahren wurde zunehmend die graphische Ausgabe wichtiger, trei- bend hierbei war unter anderem die Entwicklung von CAD und von grafischen Benut- zeroberflächen (GUI, Graphical User Interface), die mit dem Macintosh populär wur- den.

2003 wurden nach einer Erhebung der Gesellschaft für Unterhaltungs- und Kommuni- kationselektronik (gfu) in Deutschland erstmals mehr Flüssigkristallbildschirme abge- setzt als konventionelle Geräte mit Bildröhre. Die Bildschirmdiagonalen für typische Desktop-An Wendungen liegen heute meistens zwischen 50 und 75 cm, für Notebooks sind etwa 34 bis 43 cm üblich.

Frühe Personal Computer verfügten wie damalige Computerterminals häufig über inte- grierte Bildschirme. Heute ist das nur noch bei portablen Computern wie Notebooks und Handheids üblich. Bildschirme für ortsfesten Einsatz werden in der Regel in sepa- rate Gehäuse eingebaut, die auch die Elektronik zu ihrer Ansteuerung beinhalten und meist über standardisierte Schnittstellen wie VGA oder DV1 an eine in den Computer eingesteckte Grafikkarte angeschlossen werden. Seit etwa 2001 gibt es auch Bildschir- me, die dreidimensionale Bilder darstellen können, sogenannte autostereoskopische Displays oder auch 3D-Monitore. Die Entwicklung befindet sich noch im Anfangssta- dium, eine perfekt ausgearbeitete virtuelle Realität ist mit ihnen noch nicht möglich.

Bei einem sogenannten Smart Display handelt es sich um einen Monitor, der per Funk mit dem Rechner verbunden und so in Grenzen portabel ist.

Eigenschaften

Die Bildschirmdiagonale ist die Größenangabe des Bildschirms und bezieht sich immer auf die Diagonale der Bildröhre, diese war bei Bildröhren etwas größer als die sichtbare Diagonale. Weitere Kennzeichen eines Monitors sind das Seitenverhältnis, die maxima- le Zeilenfrequenz, aus der sich für eine bestimmte Bildhöhe die Bildwiederholfrequenz ergibt, der maximale Pixeltakt (aus diesen drei Frequenzen sowie dem vertikalen und horizontalen blanking interval ergibt sich die Auflösung), die Helligkeit, der Kontrast, die Reaktionszeit sowie besonders bei Flüssigkristallbildschirmen die Anzahl der Pixel und der maximale Blickwinkel. Bei Röhrenmonitoren ist noch die Art (Loch-, Streifen- oder Schlitzmaske) und das Raster der Maske relevant.

Mehrfachanzeige

Eine Mehrfachanzeige, auch Multifunktionsanzeige, dient der Darstellung mehrfacher Informationen. Dies kann ein einzelnes elektronisches Gerät oder ein Verbundsystem mit mehreren Bildschirmen sein. Sinn und Zweck dabei ist, eine große Anzahl von be- nötigten Werten oder auch Bildern und Signalen zur gleichen Zeit mit mehreren Anzei- gegeräten oder nacheinander auf demselben Display anzeigen zu können.

Dazu müssen vorgegebene oder aktuell aufbereitete Daten visualisiert und ausgegeben werden.

Heute wird dies bei einer Vielzahl von Anwendungen verwendet, beispielsweise beim elektronischen Fluginstrumenten-Anzeigesystem in Luftfahrzeugen, bei Mobiltelefonen (Handys), bei Tablet-PCs oder bei digitalem Fernsehen.

Bekannte und weitverbreitete Methoden zur simultanen Darstellung ist die Fenstertech- nik - die dem Betriebssystem Windows zu seinem Namen verhalf Personal-Computer. Hierbei können verschiedene Programme in sogenannten

„Fenstern“ nebeneinander angeordnet werden, wobei auch hier ein oder mehrere Moni- tore eingesetzt werden können.

Darstellungstechniken

Verwendete Darstellungstechniken sind:

-Feldemissionsbildschirm („FED“)

-Flüssigkristallbildschirm („LCD“)

-Dünnschichttransistorbildschirm („TFT -LCD“)

-Kathodenstrahlröhrenbildschirm („CRT“)

-Plasmabildschirm

-Organische Leuchtdiode („OLED“)

-Surface-conduction Electron-emitter Display („SED“)

-Kathodenstrahlröhre mit kontinuierlicher fluoreszierender Beschichtung (Oszilloskop) -Bildpunkt-Maskentypen (Pixeling)

-Röhrenmonitor-Wiedergabe (Lochmaske)

-Röhrenmonitor-Wiedergabe (Streifenmaske)

-Röhrenmonitor-Wiedergabe (Bildausschnitt). Alle Farbpunkte liegen auf einer Linie, die von drei Elektronenstrahlen (je Farbe einer) zeilenweise zum Leuchten angeregt werden.

-Matrix eines Femsehbildschirmes

Anwendungsgebiete

Anwendung finden diese in

-Bedienelementen von Maschinen und Geräten aller Art

-Anzeigegeräte in allen Bereichen der Technik

-Fernsehgeräten

-Computermonitoren

-Radargeräten, Oszilloskopen

-bildgebenden Verfahren in Wissenschaft

-medizinischen Diagnose- und Überwachungsgeräten (Monitore)

-Notebooks, PDAs (Handheids, Organizer), Mobiltelefonen

-Digitalkameras und Camcordern

-elektronischen Navigationsgeräten

-Werbeanzeigen, Informationsschildem im Straßenverkehr

Siehe auch

-Bildschirmarbeitsverordnung

-Bildschirmmedien

-Breitbildmonitor

-Display PostScript

-Elektronisches Papier

-Head-Mounted Display

-Kontrast Verhältnis

-TCO (Standard)

-Touchscreen 4. Anzeige (Technik)

Die Anzeige beschreibt in der Technik allgemein eine Vorrichtung zur optischen Signa- lisierung von veränderlichen Informationen (Zustände und Werte), insbesondere Mess- werten. Sie unterscheiden sich dadurch von Kennzeichen, welche gleichbleibende In- formationen darbieten. Im Arbeitssystem stellen Anzeigen eine Schnittstelle zwischen dem Menschen und einem technischen Prozess oder der Umwelt dar.

Eine Anzeige kann sehr unterschiedliche Bauformen aufweisen und auf unterschiedli- cher technischer Umsetzung basieren. Man unterscheidet mechanische, elektromechani- sche und elektronische Anzeigen. Nach der Art und Aussage der Anzeige selbst kann man sie auch in binäre Anzeigen, Skalenanzeigen, Ziffernanzeigen und grafische An- zeigen unterteilen. In der Ergonomie unterscheidet die DIN EN 8942 -2[1] zwischen op- tischen, akustischen und taktilen Anzeigen.

Bauformen und technische Umsetzungen von Anzeigen Mechanische Anzeigen

Bei mechanischen Anzeigen wiederum werden kontinuierliche und diskrete Anzeigen unterschieden.

Beispiele für kontinuierliche mechanische Anzeigen:

-Mechanische Tachometer setzen die Drehzahl einer Welle in einen dazu pro- portiona- len Winkel eines Zeigers um.

-Eine mit einem Zeiger kombinierte Aufwickeleinrichtung für einen Faden misst, wie tief ein an dem Faden hängender Schwimmer abgesunken ist, und zeigt damit den Füll- stand an, u. a. an Öltanks.

-Pegelstandanzeiger oder kurz Pegel, wie sie an vielen Flüssen zu finden sind, oder auch Wasser- bzw. Füllstandsanzeigen, z. B. an Kesseln oder Kaffeema- schinen, zei- gen durch direkten Blick auf den Flüssigkeitsstand an einer Skale, oftmals über ein Schauglas, den Füllgrad bzw. den Wasserstand an.

-Flüssigkeitsthermometer

-Bimetallthermometer

-analoge mechanische Waagen (Zeiger, bewegte oder projizierte Skale)

-Abstimm-Skale zur Senderwahl an Radios Beispiel für diskrete mechanische Anzeigen:

-Eisenbahn-Formsignale in verschiedenen Bauformen für Anweisungen wie

-„Fahrt“ und„Halt“

-Kennmelder an Schmelzsicherungen signalisieren einen durchgebrannten Schmelzlei- ter

-mechanische Schrittzähler und Kilometerzähler; allgemein: Rollenzählwerke

-Wasserzähler, Gaszähler

Elektromechanische Anzeigen

Kontinuierliche elektromechanische Anzeigen:

-Skalenanzeigen

-mechanischer Zeiger

-Drehspulmesswerk

- Dreheisenmesswerk

- Lichtzeiger

-Spiegelgalvanometer

-sonstige

-Zungenfrequenzmesser

-elektrolytischer Betriebsstunden- oder Strommengenzähler

-Elektrometer

Diskrete elektromechanische Anzeigen:

-Elektromechanische Zähler mit Ziffernrollen

-mit Ferrarismotor in Energiezählem

-in Kilometerzählern

-Fallblattanzeigetafeln an Flughäfen und Bahnhöfen für Texte und Uhrzeiten

-Schauzeichen

-Fallklappenrelais Elektrische und elektronische Anzeigen:

-Elektrisch angesteuerte Anzeigen ohne bewegte Teile können binäre Anzeigen, Zif- femanzeigen, aber auch analoge Anzeigen (Bargraph-Anzeige, Magisches Auge) oder Bilddarstellungen sein. Mit dem Begriff Digitalanzeige ist meist eine Ziffernanzeige gemeint.

Technische Realisierung (Beispiele):

-Meldelampen [Leuchtmittel Glühlampe oder Leuchtdioden (LEDs), Organische Leuchtdioden (OLEDs)]

-binär, Farbwechsel, Ziffemanzeige oder Bargraph

-Helligkeitsvergleich oder mit unterschiedlicher Frequenz blinkend

-Flüssigkristallanzeigen (LCDs); Zeichen-, Symbol- Ziffern- oder Bilddarstellung (Smartphones, Flachbildschirme)

-Fluoreszenzanzeigen (VFDs); Zeichen- oder Symboldarstellung, auch Bar- graph- Anzeigen, Magisches Auge

-Braunsche Röhren; y-x-Darstellung bei Bildröhren, Oszilloskopen, Spektrum- Analy- zem, Messempfangem, Darstellung in Polarkoordinaten in Radargeräten

-Nixie-Röhren (Ziffemanzeige)

Großformatige LED -Matrixanzeige auf einem japanischen Verkehrsknotenpunkt

Übliche Ansteuerarten komplexer elektrischer oder elektromechanischer Anzeigen sind: -vektororientierte Ansteuerung

-Raster- oder Matrixanzeige

-Segmentanzeige (Sieben-Segment-Anzeige, Vierzehn-Segment-Anzeige, bi- näre Symboldarstellung)

Der Bildschirm (auch Monitor, Display, Smart Display) ist ein sehr universelles Anzei- geinstrument. Als Braunsche Röhre kann er vektor- und rasterorientiert angesteuert werden.

Zunehmend kommen Flüssigkristallbildschirme zur Anwendung, die als Matrizen ra- sterförmig angesteuert werden.

Weit verbreitet sind auch LC- Sieben-Segment- Anzeigen, wie sie unter anderem in digi- talen Messgeräten, Armband- und Funkuhren Vorkommen. Ein Virtual retinal display projiziert die Information direkt auf die Retina des Auges. Projektionsanzeigen projizieren alphanumerische Zeichen oder Symbole an eine Wand oder eine Mattscheibe. Bei Weckern mit Projektionsanzeige wird eine Siebensegmen- tanzeige projiziert, während u. a. bei frühen Großrechnern Ziffemanzeigen zum Einsatz kamen, die für jede Stelle (Ziffer) je 10 Glühlämpchen, 10 Kollimatorlinsen, Gobos 0...9 und 10 entsprechend ausgerichtete Objektive besaßen, um jede Ziffer an der glei- chen Position auf einer Mattscheibe darstellen zu können. Zur Projektion von Videobil- dem (Videoprojektor) auf Großleinwände waren früher aufwendige Einrichtungen wie das Eidophor-System nötig. Seit den 1990er Jahren gibt es dafür Projektionstechniken mit LCDs oder DLPs, in bestimmten Ländern Beamer genannt.

Head-up-Displays spiegeln sich in einer teiltransparenten Platte (Windschutzscheibe, separate Strahlteiler scheibe).

Anzeigen in der Messtechnik

In der für die Messtechnik grundlegenden DIN 1319-2 wird bei„Messgeräte mit direk- ter Ausgabe“ unter anderem unterschieden in Skalenanzeige und Ziffemanzeige.

Skalenanzeige mittels Flüssigkristallanzeige

Bei einem Messgerät mit Skalenanzeige stellt sich als Ausgangsgröße eine Marke (z. B. eine bestimmte Stelle eines körperlichen Zeigers oder eines Bildschirmzeigers, ein Lichtzeiger (siehe z. B. auch Spiegel -Galvanometer), eine Kante, der Meniskus einer Flüssigkeitssäule) meist kontinuierlich auf eine Stelle der Skale ein, oder die Skale wird darauf eingestellt. Zu körperlichen Zeigern siehe z. B. unter Analogmultimeter, Dreh- spulmesswerk.

Skalenanzeigen finden sich auch an einer Vielzahl mechanischer Messgeräte wie Waa- gen, Messschieber; letztere verwenden einen Nonius zur genaueren Ablesbarkeit. Spie- gelskalen besitzen zusätzlich einen Spiegelsektor hinter dem Zeiger, um senkrechtes Ablesen zu erleichtern und damit einen Parallaxenfehler beim Ablesen zu vermeiden. Zeigeruhren, Stoppuhren und Messschrauben besitzen 2 bis 3 Zeiger, um die Ablese- genauigkeit zu erhöhen.

Bei der Bandanzeige wird entweder diskontinuierlich eine veränderliche Anzahl von Segmenten zum Leuchten gebracht oder kontinuierlich eine veränderliche Länge des Bandes eingestellt. Sie kann zur Messung dienen oder nur zur qualitativen Beurteilung, siehe hierzu Bargraph-Anzeige oder auch Magisches Auge. Die diskontinuierliche Bandanzeige arbeitet digital und verbindet die Digitaltechnik mit den Vorteilen einer Skalenanzeige.

Ziffernanzeige

Bei einem Messgerät, bei dem die Ausgangsgröße eine in fest gegebenen Schritten quantisierte zahlenmäßige Darstellung der Messgröße ist, erscheint diskontinuierlich die Anzahl (Summe) von Quantisierungseinheiten oder die Anzahl (Summe) von Im- pulsen in einer Ziffemfolge. Die Ziffernanzeigen unterscheiden sich durch die Prinzi- pien der Zifferndarstellung. Siehe hierzu Abschnitt Elektrische und elektronische An- zeigen. Frühere Ziffemanzeigen verwendeten pro Stelle zehn diskrete, hinterleuchtete Ziffern, die direkt anhand des Aufleuchtens betrachtet oder projiziert wurden.

Ziffemanzeigen haben den Nachteil, dass Trends und die absolute Größe nicht auf den ersten Blick erkennbar sind. Daher besitzen Digitalmultimeter (kurz DMM, d. h. solche mit einer Ziffernanzeige) manchmal zusätzlich einen schnelle Bargraphanzeige oder ein Zeigerelement, die jedoch auch aus diskreten Anzeigeelementen bestehen (siehe Bild rechts).

Vorteile sind z. B. die Darstellbarkeit des Messwertes über weite Bereiche durch varia- ble Kommata und zusätzlich angezeigte Maßeinheiten, die Eindeutigkeit bei der Able- sung sowie bei selbst leuchtenden Anzeigen die gute Ablesbarkeit bei schlechten Licht- verhältnissen.

Zusätze

Bei entsprechender Ausgabetechnik können zusätzlich Bewertungen in der Anzeige enthalten sein; beispielsweise kann auf eine Grenzwertüberschreitung oder Gefahr in der Anlage durch blinkende Anzeige, zusätzliches Leuchtzeichen oder wechselnde Far- be hingewiesen werden. Computermonitor

Ein Computermonitor ist ein Bildschirm, der primär zum Anschluss an einen Computer gedacht ist. Insbesondere in den Jahren zwischen 1985 und 2005 entwickelten sich Fernsehgeräte und Computermonitore sehr weit auseinander (Qualität, Bildraten, Signa- le, Pegel, Stecker), seit 2010 wachsen diese wieder zusammen.

In der Anfangszeit der Computer gab es keine Computer -Monitore und auch keine Computer-Tastaturen und -Mäuse. Eingabe und Ausgabe erfolgten über Lochkar- ten(stapel) oder Lochstreifen. Diese wurde mit Lochkartenstanzem (oder Lochstreifen- S tanzern) erstellt. Drucker (eigentlich Fernschreiber) sorgten schließlich für die Aus- gabe der Daten, die auf den Lochkarten oder -streifen gespeichert waren oder vielmehr aus diesen Daten errechnet wurden (Listenausgabe).

Ab Anfang der 1960er Jahre kamen Mainframe-Systeme wie die IBM-S/360-Serie auf den Markt, die mit Hilfe von Text-Kommandos über eine Tastatur bedient werden konnten, wobei die Ausgabedaten mit Hilfe eines Anschlagdruckers auf Endlos- Papier visualisiert wurden. Da für den Ausdruck lediglich die binären Steuercodes für die zu druckenden Zeichen übermittelt werden mussten, war dieses Verfahren im Gegensatz zur digitalen Modulation von Bilddaten bereits vor der Erfindung des Monitors reali- sierbar. Die ersten Computer-Terminals waren so konzipiert, dass sie dieselben Steuer- daten wie ein damaliger Drucker interpretieren konnten, um daraus eine Textausgabe auf dem Bildschirm zu generieren.

Computerterminals

Anfang der 1970er tauchten zunehmend Computerterminals auf. Typische Vertreter wa- ren z. B. die IBM-3270-Terminals oder VTIOO-Terminals, an die ANSI.SYS unter MSDOS noch erinnert. Der Umweg über Lochkarten und Bänder verschwand, man konnte mit Hilfe solcher Terminals direkt mit einem Computer kommunizieren. Als charakteristische Eigenschaft blieb, dass die Kommunikation immer noch gewisse Ähn- lichkeiten mit Fernschreibern und Lochstreifen hatten. Sie wurden meist, analog zu Fernschreibern, seriell mit Text- und Steuerzeichen angesteuert. Eingaben wurden ge- sammelt dem Zentralcomputer (mit seiner kostbaren Rechenzeit) übermittelt.

Als Monitore selbst kamen meist weiße, grüne oder orange Monochrommonitore zum Einsatz. Die Terminals hatten meist 80 oder 132 Zeichen je Zeile bei 24 oder 43 Zeilen. Die Auflösung lag zwischen 240 und 350 Zeilen, Bildraten bei 50 oder 60 Hz, häufig mit nachleuchtendem Phosphor, um das Flimmern durch den Bildrasteraufbau zu mi- nimieren.

Aufkommende Heimcomputer, Anfänge des PCs

Für Heimcomputer griff man auf vorhandene Technik zurück - den heimischen Fernse- her. Etwas besser waren spezielle Computermonitore. Die Darstellungsqualität hängt dabei auch von der benutzten Schnittstelle zwischen Computer und Fernseher ab; in aufsteigender Reihenfolge:

-Ansteuerung über einen HF-Modulator. Üblich sind maximal 40 Zeichen pro Zeile. -Ansteuerung mittels FBAS-Signal über einen Video-Eingang, der u. a. auch für Video- recorder gedacht war.

-Ansteuerung mittels getrenntem Färb- und Helligkeitssignal (S-Video).

-Ansteuerung mittels RGB-Signal (meist über SCART).

Je weiter unten in der Liste das Verfahren steht, desto weniger— der eigentlich nur für die Fernsehübertragung via Antenne notwendigen - Signalverarbeitungsstufen sind bei der Übertragung involviert; dementsprechend entfallt die jeweils innewohnende Limi- tierung der Signalqualität durch Bandbreitenbegrenzung oder Modulationsartefakte. Al- lerdings war zu Beginn der Heimcomputer-Ära am vorhandenen Fernseher ein anderer Eingang als der für das HF-Signal (Antenneneingang) nicht selbstverständlich, weshalb über den HF-Modulator praktisch jeder Fernseher für die Ausgabe geeignet ist. Auf der anderen Seite basiert das Bildsignal vieler Heimcomputer gar nicht auf einem RGB- Signal; sie erzeugen direkt ein FBAS- oder S-Video-Signal, weswegen dort ein RGB- Monitor nicht genutzt werden kann.

Aufkommen von hochauflösenden Computermonitoren Sowohl für Heimcomputer wie den C64 wie auch für Büro-Computer wie die IBM-PCs gab es Computermonitore. Während der folgenden Jahrzehnte entwickelten sich die Darstellungsstandards bei der IT-Technik beständig weiter, während aufgrund der be- stehenden Normen der Fernsehübertragung dort (abseits von Detailverbesserungen) praktisch kein Fortschritt stattfand. Dies führte dazu, dass sich über knapp 20 Jahre Computermonitore und Fernseher extrem auseinanderentwickelten. Mit dem ersten Schritt weg vom femsehkompatiblen Heimcomputer war die Darstellung eines Compu- terbildes auf einem Fernseher praktisch unmöglich. Die Fortschritte im Bereich der Di- gitaltechnik ermöglichten später jedoch vergleichsweise einfach eine qualitativ gute N ormenwandlung .

Dadurch können einerseits Femsehsignale aus Computerbilddaten erzeugt werden, zum anderen war das eine Voraussetzung für die Weiterentwicklung von Fernsehnormen un- ter Beibehaltung von Abwärts- und Aufwärtskompatibilität, wodurch sich Computer- und Femsehtechnik wieder einander annähem.

Flachbildschirme, digitale Schnittstellen

Um das Jahr 2000 tauchten sowohl im Computer- wie im Fernsehbereich Flachbild- schirme auf. Bei Fernsehern kamen am Anfang Plasmabildschirme zum Einsatz, bei Computern Flüssigkristallbildschirme (LCD) mit Dünnfilmtransistoren (TFT) . Mit DVI bei Computern und HDMI bei Femsehern wurden sehr ähnliche Standards der Ansteue- rung von Displays entwickelt.

Anschlüsse

TV und Heimcomputer

Im Bereich der Heimcomputer kommen die zu ihrer Hochzeit in den 1980er-Jahren üb- lichen Verbindungstechniken für Trägerfrequenzsignale (via HF-Modulator), Video- und RGB-Signale zum Einsatz (z. B. Belling-Lee-Steckverbinder, BNC-, Cinch-, DIN- oder SCART-Stecker).

Monitore

VGA-Stecker und Buchse Die Übertragung von Videosignalen wechselte mehrfach.

-Ära 1 : Videosignale wurden genauso wie beim Fernsehgerät analog übertra- gen. Be- liebig viele Farben konnten übertragen werden. Synchronisation wird mit dem Hellig- keitskanal bzw. mit dem Grünkanal übertragen.

-Ära 2: Der IBM-PC favorisierte die digitale Übertragung mit getrennter Übertra- gung der Synchronsignale.

-Monochrom-Monitore wurden über zwei Signale angesteuert (Video, In- tensity) und zwei Synchronsignale (HSync+ und VSync-)

-Color Graphics Adapter-Monitore über vier Signale (Red, Green, Blue,

Intensity) und zwei Synchronsignale (HSync+ und VSync-)

-Enhanced Graphics Array-Monitore über sechs Signale (Red, Green, Blue, Red- Intensity, Green-Intensity, Blue-Intensity) und zwei Syn- chronsignale (HSync+ und VSync-)

-Ära 3: Beim Video Graphics Array wurde von IBM pro Farbe (Rot, Grün, Blau) wie- der nur eine Leitung verwendet, über die die Intensität analog übertragen wurde. Dabei wurden bis zu 218 Farben unterstützt. Die beiden Synchronsig- nale blieben erhalten. -Ära 4: Digitale Übertragung von analogen Signalen als digitale Daten über 1 oder 2 Leitungen. Synchronsignale als spezielle Codeworte im digitalen Da- tenstrom.

-Ära 5 : In Ära 4 wird das Signal mit dem exakten Timing aus Ära 3 übertragen. Man löst sich auch von dieser Gewohnheit und überträgt Videodaten als asynchrone Pakete.

Synchronsignale

Computermonitore benötigen meist separat übertragene Synchronsignale (HSYNC + VSYNC). Selten werden beide Signale zusammen übertragen (CSYNC). Das Übertra- gen mit dem Helligkeitssignal (YUV) oder Sync-on-Green, der Standard bei Video, wird nicht verwendet.

Flachbildschirme

DVI-Stecker und Buchse

Digital Visual Interface (DVI) ist eine Schnittstelle zur Übertragung von Videodaten. Im PC-Bereich entwickelte sich DVI zu einem Standard für den Anschluss von TFT - Monitoren an die Grafikkarte eines Rechners. DVI beinhaltet die gleichzeitige Ausgabe von analogen (DVI-A oder DVI-I) wie digitalen Video-Signalen (DVI-D und DVI-I). DVI ist in weiten Bereichen kompatibel zum später entstandenen HDMI.

High Definition Multimedia Interface

High Definition Multimedia Interface (HDMI) ist eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Un- terhaltungselektronik. Sie vereinheitlicht existierende Verfahren, erhöht gegenüber die- sen die Qualitätsmerkmale, und bietet außerdem auch ein zusammenhängendes Kopier- schutz-Konzept (DRM).

DisplayPort

DisplayPort (DP) ist ein durch die VESA genormter universeller und lizenzfreier Ver- bindungsstandard für die Übertragung von Bild- und Tonsignalen.

Anwendungsbereiche sind im Wesentlichen der Anschluss von Bildschirmen und Fern- sehgeräten an Computern und ähnlichen Geräten.

Quo vadis

Der Weg ist klar vorgezeichnet hin zu einer allgemeinen Schnittstelle, die sowohl zur Stromversorgung und zur Datenübertragung wie auch zur Ausgabe von Videodaten be- fähigt ist. Siehe USB 3.1 mit Stecker Typ C, Mobile High-Definition Link (MHL) und Thunderbolt.

Analoges TV

Serial Digital Interface

Das Serial Digital Interface (SDI) ist eine serielle digitale Schnittstelle, primär zur Übertragung von unkomprimierten und unverschlüsselten Videodaten über Koaxialka- bel oder Lichtwellenleiter. Es kommt hauptsächlich im Bereich professioneller Fernseh- studios und Fernsehsendern zum Einsatz. Die SDI-Schnittstelle wird von der Society of Motion Picture and Television Engineers (SMPTE) spezifiziert, und stellt eine Weiterentwicklung der analogen Videostandards wie dem PAL beziehungsweise NTSC-Verfahren dar.

Technische Typen nach Art des Bilddarstellungsverfahrens Rasterdisplays vs. Vektor- displays

Rasterdisplays überstreichen den gesamten Bildschirm in einem festen Raster. Der Elektronenstrahl wird je nach Darstellung hell- oder dunkelgetastet.

Vektorbildschirm

Vektorbildschirme arbeiten ähnlich einem Plotter. Es können schlecht Flächen, aber sehr gut Linien dargestellt werden. Ab einer gewissen Komplexität der Darstellung flimmert das Bild zunehmend, da das Zeichnen zu lange dauert und weniger als 40 Mal das Bild pro Sekunde geschrieben werden kann.

Röhrenmonitore

Kathodenstrahlröhrenbildschirm

Flachdisplays: Flüssigkristallbildschirme (oder auch Plasma-Displays)

Während neuere LCD-Computermonitore und EQDTV -Monitor ausnahmslos quadrati- sche Pixel besitzen, gibt es bei alten LCD-Computermonitoren und SDTV- Bildschir- men sowohl quadratische wie nichtquadratische Pixel. Nichtquadratische Pixel waren bei frühen CGA- und EGA-Laptop-Displays üblich. SDTV-Monitore orientierten sich häufig an der ITU-R BT.601 und hatten horizontal 352, 704 oder 720 Pixel. Weder bei 4:3 noch bei 16:9 noch bei PAL noch bei NTSC waren dann die Pixel quadratisch.

Datenübertragung

Der Anschluss beim TFT-Monitor ist nicht nur eine Frage der Kompatibilität, sondern auch der Qualität des Bildes. DVI ist eine digitale Schnittstelle für Grafikkarten und Monitore (Digital Visual Interface). VGA ist die analoge Schnittstelle (Video Graphics Array). Die Grafikdaten werden im PC digital verarbeitet, die dann in der Grafikkarte in analoge Signale umgewandelt werden. Ein TFT-Monitor benötigt digitale Signale zur Darstellung der Bilder. Wird jetzt ein TFT -Monitor über einen VGA -Anschluss betrieben, muss im Monitor ein Analog- Di- gital -Wandler das analoge Signal in ein digitales Signal übersetzen. Durch die Um- wandlung wird die Qualität des Bildes je nach verwendeten Bauelementen mehr oder weniger gedämpft. Leichte Unschärfe und Flimmern können die Folge sein. Die beste Kombination ist eine Grafikkarte mit digitalem DVI -Ausgang und ein Monitor mit DVI-Eingang. Per DVI- VGA- Adapter kann auch ein TFT-Monitor, der lediglich einen VGA- Anschluss besitzt, an einer Grafikkarte mit DVI -Anschluss betrieben werden, je- doch wird bei diesem Verfahren das Bild weiterhin analog übertragen.

Standardauflösungen

Im Bereich existieren sowohl Grafikstandards, wie auch typische Auflösungen für Gra- fikmodi, wobei die meisten über die VESA standardisiert sind.

Die Bildschirme sind werksseitig auf ein Gamma von 2,2 und eine Farbtemperatur von 6500 K justiert. Mittels Farbmanagement-Software lassen sich diese Werte (soweit dar- stellbar) anpassen.

Flachbildschirme haben wie Röhrenbildschirme mit Kathodenstrahlröhre eine maxima- le und minimale darstellbare Bildschirmauflösung. Während bei einem Röhrenmonitor keine Auflösung genau über die native Lochmaske passt und daher alle Auflösungen entsprechend unscharf wiedergegeben werden. Die meisten anderen Auflösungen müs- sen interpoliert werden, und erscheinen daher weniger scharf. Ausnahmen sind Auflö- sungen, die in Höhe und Breite Teiler der Maximalauflösung darstellen und bei denen daher keine Zwischenpixel interpoliert werden müssen, wie etwa die Hälfte oder ein Viertel der nativen Auflösung. Die native Auflösung wird in der Typenbeschreibung des Monitors angegeben.

Als Desktop-Bildschirmauflösung des Betriebssystems ist daher heute die native (= maximale) Bildschirmauflösung des verwendeten Flachbild-Monitors besonders zu empfehlen. Moderne Betriebssysteme übernehmen die Skalierung der Bildschirmdar- Stellung in die gewünschte Darstellungsgröße selbst, und ermöglichen der Grafikkarte so, den Flachbildschirm in seiner nativen Auflösung anzusteuem.

Bildschirmmaße

Bei TFT-Monitoren wird die exakte Bildschirmdiagonale angegeben. Bei früheren Röh- renmonitoren wurde die (nicht vollständig nutzbare) Diagonale des Glaskolbens ange- geben. Diese Diagonale war etwa 2,5 bis 4 cm größer als die wirklich nutzbare Diago- nale.

Das Seitenverhältnis bei Röhrenmonitoren war fast(?) ausnahmslos 4:3. Bei Flachdis- plays war dies anfangs auch so. 17-Zoll- und 19-Zoll-Geräte gab es meist mit 1280>< 1024er Auflösung und einem Seitenverhältnis von 5:4. Ab dem Aufkommen von 24-Zoll- Geräten um die Jahrtausendwende kamen 16:10 und seit 2008 16:9- Geräte da- zu. Letztere haben mittlerweile einen Marktanteil von etwa 90 Prozent.

Eine weitere Größe war bei Röhrengeräten die maximale Zeilenfrequenz bzw. die ma- ximale Bildfrequenz bei gegebener Auflösung. Seit der Ära TFT ist diese von geringe- rer Bedeutung geworden und beträgt meist 60 Hz. Flimmern hat nichts mehr mit der Auffrischrate des Bildinhalts zu tun.

5. Flüssigkristallanzeige

Eine Flüssigkristallanzeige (englisch liquid crystal display, LCD) oder ein Flüssigkri- stallbildschirm ist eine Anzeige (engl display) oder ein Bildschirm, dessen Funktion darauf beruht, dass Flüssigkristalle die Polarisationsrichtung von Licht beeinflussen, wenn ein bestimmtes Maß an elektrischer Spannung angelegt wird.

LCDs bestehen aus Segmenten, die unabhängig voneinander ihre Transparenz ändern können. Dazu wird mit elektrischer Spannung in jedem Segment die Ausrichtung der Flüssigkristalle gesteuert. Damit ändert sich die Durchlässigkeit für polarisiertes Licht, das mit einer Hintergrundbeleuchtung und Polarisationsfiltern erzeugt wird. Soll ein Display beliebige Inhalte darstellen können, sind die Segmente in einem gleichmäßigen Raster angeordnet (siehe Pixel). Bei Geräten, die nur bestimmte Zeichen darstellen sollen, haben die Segmente oft eine speziell darauf abgestimmte Form, so insbesondere bei der Sieben-Segment-Anzeige zur Darstellung von Zahlen (siehe auch Matrixanzeige).

Eine Weiterentwicklung ist das Aktiv-Matrix-Di splay, das zur Ansteuerung eine Matrix von Dünnschichttransistoren (engl thin-film transistor, TFT) enthält. Bei Flachbild- schirmen dominiert diese Technik seit etwa 2005.

In der Werbung wird seit etwa 2009 häufig von LED-Femsehem gesprochen. Dabei handelt es sich in den meisten Fällen ebenfalls um Flüssigkristallbildschirme (LCDs) zur Bilddarstellung, bei denen zur Hintergrundbeleuchtung LEDs eingesetzt werden (LED-Backlight). Bildschirme mit organischen Leuchtdioden (OLEDs) sind für groß- flächige Fernsehgeräte erst seit kurzem in Europa erhältlich, nachdem anfänglich nur der Testmarkt in Südkorea bedient wurde.

LCDs finden Verwendung an vielen elektronischen Geräten, etwa in der Unterhaltungs- elektronik, an Messgeräten, Mobiltelefonen, Digitaluhren und Taschenrechnern. Auch Head-up-Displays und Videoprojektoren arbeiten mit dieser Technik.

Geschichte

1904 veröffentlichte Otto Lehmann sein Hauptwerk Flüssige Kristalle. Im Jahre 1911 beschrieb Charles Mauguin die Struktur und die Eigenschaften von Flüssigkristallen. 1936 erhielt die American Marconi Wireless Telegraph Company ein Patent auf die er- ste praktische Anwendung der Technologie, das Flüssigkristall- Lichtventil. 1962 er- schien die erste wichtige englischsprachige Publikation über Molekulare Struktur und Eigenschaften von Flüssigkristallen (Original: Molecular Structure and Properties of Liquid Crystals) von George William Gray. Pionierarbeiten über Flüssigkristalle wurden in den späten 1960er Jahren vom briti- schen Radar Research Establishment in Malvem geleistet. Das dortige Team unterstütz- te die fortschreitenden Arbeiten von George William Gray, der mit seinem Team an der Universität Hüll in Kingston upon Hüll (England) schließlich flüssigkristalline Cyanobiphenyl -Verbindungen synthetisierte, die die Anforderungen bezüglich Stabilität und Temperaturverhalten für LCD erfüllte.

Das erste funktionierende LCD basierte auf dem dynamischen Streumodus (engl dy- namic Scattering mode, DSM) und wurde 1968 in den USA von einer Gruppe bei der Radio Corporation of America (RCA) unter der Leitung von George H. Heilmeier ein- gefuhrt. Heilmeier gründete die Firma Optel, die einige LCDs nach diesem Prinzip ent- wickelte.

Am 4. Dezember 1970 meldeten Martin Schadt und Wolfgang Helfrich, damals im Central Research Laboratory der Firma Hoffmann-LaRoche tätig, das erste Patent über die„nematische Drehzelle“ (auch TN -Zelle, Schadt-Helfrich-Zelle, twisted nematic field effect) in der Schweiz an. Das Patent wurde in 21 Ländern erteilt, nicht jedoch in Deutschland.

Am 22. April 1971 reichte James Fergason von der Kent State University in den USA seine Patentanmeldung über den twisted nematic field effect in Flüssigkristallen ein und stellte 1971 in seiner Firma ILIXCO, die heute (2005) LXD Incorporated heißt, LCD mit dieser Technik her. Sie ersetzten schnell die schlechteren DSM-Typen.

Ideen, welche heute in Aktiv-Matrix-Displays verwendet werden, entstanden bei der Konzeption von Flüssigkristall-Balkenanzeigen (engl bar graph displays). So wurde 1971 ein LC-Matrixdisplay für Balkenanzeigen bei der Firma Brown, Boveri & Cie, Baden, Schweiz, entwickelt, wobei jedem LC -Segment eine Diode (nichtlineares Ele- ment) vorgeschaltet und ein zusätzlicher Kondensator als Speicherelement parallelge- schaltet wurde.

Am 28. Juni 1973 wurde in den USA eine Anordnung zur Balkenanzeige zum Patent angemeldet, bei welcher Interdigital -Elektroden auf nur einer Glasplatte angebracht werden, um ein elektrisches Feld parallel zu der Glasplatte zu erzeugen und die Flüs- sigkristalle in einer Ebene umzuorientieren (in-plane Switching, IPS, siehe Anzeigety- pen).

Am 7. Juli 1983 mit einer Ergänzung vom 28. Oktober 1983 reichten H. Amstutz und seine Miterfmder des Forschungszentrums der Firma Brown, Boveri & Cie, Baden, Schweiz, eine Patentanmeldung ein, welche die Basis für Super-Twisted Nematic STN- LCD bildete (siehe Anzeigetypen). Mit STN-LCD ließen sich erstmals monochrome, passive Matrixanzeigen mit ausreichender Auflösung für einfache Bilddarstellungen realisieren (siehe Darstellung einer Weltkarte unter Elektronische Ansteuerung). Dieses Patent wurde in vielen Ländern erteilt. Vor allem asiatische Hersteller wurden Lizenz- nehmer (weltweit über 60)

Am 9. Januar 1990 meldeten G. Baur und seine Miterfinder der Fraunhofer- Gesell- schaft in Freiburg i. Br. ein Patent in Deutschland an, welches die konkrete Basis für optimiertes In-Plane Switching in Matrixanzeigen (IPS-LCDs) bildete.

Dieses Patent wurde in vielen Ländern erteilt, von der Firma Merck KGaA Darmstadt, dem weltweit größten Hersteller von Flüssigkristallsubstanzen, übernommen und an viele Firmen lizenziert.

Am 18. September 1992 mit Nachtrag vom 20. Januar 1993 machten K. Kondo und seine Miterfmder bei Hitachi eine Patentanmeldung in Japan, [8] welche als weiteres wesentliches Element des In-Plane Switching eine spezifisch geeignete Verbindungs- technik der Dünnfilmtransistoren in Matrixform darlegte. Später erfolgte eine weitere Hitachi-Patentanmeldung, welche die Blickwinkelabhängigkeit dieser Art von FK- Anzeigen verbesserte.

Anzeigetypen

Schadt-Helfrich-Zelle/ Vergrößerte Subpixel (TN-Panel) Vergrößerte Subpixel (Multi- Domain-V A-Panel)

Twisted Nematic (TN)

In Flüssigkristalldisplays verwendete Flüssigkristalle sind organische Verbindungen, die sowohl Eigenschaften von Flüssigkeiten als auch von Festkörpern aufweisen. Sie sind einerseits mehr oder weniger fluide als eine Flüssigkeit, andererseits zeigen sie Ei- genschaften wie Doppelbrechung.

Ein einfaches Flüssigkristall-Anzeigeelement lässt sich mit der Schadt-Helfrich-Zelle (nematische Drehzelle, engl twisted nematic, TN-Zelle) realisieren. Die Innenseiten zweier sehr dünner Glasplatten (Substrate) sind mit einer transparenten Elektroden- schicht (Indium-Zinn- Oxidschicht, ITO) überzogen, dazwischen befindet sich die Flüs- sigkristallschicht von weniger als 10 Mikrometer Dicke. Die Flüssigkristallmoleküle ordnen sich in eine vorgegebene Richtung, nämlich parallel zu der beispielsweise mit einem Polyimid beschichteten und in einer Vorzugsrichtung gebürsteten Oberfläche. Die Vorzugsrichtungen der beiden Substratplatten sind um 90° zueinander verdreht. Bei der Herstellung handgefertigter Prototypen kann man zum Bürsten Polystyrolschaum oder mit samtartigen Textilien beschichtete Walzen benutzen.

Zusätzlich sind die beiden Substratplatten mit um 90° zueinander verdrehten Polarisati- onsfiltern beschichtet. Auf der Rückseite dieser Anordnung kann sich ein Spiegel be- finden (Reflektor oder Transreflektor), der das einfallende Licht zurückwirft (reflexive Betriebsart). In der transmissiven Betriebsart befindet sich anstelle des Reflektors eine Beleuchtungseinheit hinter dem Anzeigeelement.

Aus den gegeneinander verdrehten Substratplatten ergibt sich eine schraubenförmige Struktur im Flüssigkristall; bei einer um 90° gedrehten Schraube spricht man von TN. Einfallendes Licht wird also vor dem Eintritt in die Flüssigkristallschicht linear polari- siert. Durch die Verdrillung der Moleküle folgt eine Drehung der Polarisationsrichtung des Lichtes, wodurch das Licht den zweiten Polarisator passieren kann und die Zelle lichtdurchlässig (transparent) ist. Da das Display im Ruhezustand durchsichtig ist, wird diese Betriebsart als Normally-White- Mode bezeichnet. Legt man eine elektrische Spannung an die Elektroden an, so tritt unter dem Einfluss des elektrischen Feldes eine Drehung der Flüssigkristallmoleküle ein, die sich parallel zum elektrischen Feld aus- richten. Die Verdrillung wird damit zunehmend aufgehoben, die Polarisationsrichtung des Lichts wird nicht mehr gedreht und damit kann es den zweiten Polarisationsfilter nicht mehr passieren.

Ordnet man die Polarisationsfilter parallel zueinander an, dann ist die Zelle ohne Span- nung dunkel und wird erst mit zunehmender Spannung transparent. Man spricht dann vom Normally-Black-Mode. Die Schadt-Helfrich-Zelle ist also (wie andere Flüssigkri- stallanzeigen auch) ein spannungsgesteuertes Lichtventil. Ein Bildschirm kann aus be- liebig vielen solcher Zellen (Bildelemente, Pixel) bestehen. Beim Taschenrechner stellt eine einfache 7-Segment-Anzeige jeweils eine Ziffer dar, bei einem farbfahigen Bild- schirm werden pro Bildelement (Pixel) drei Teilbildelemente (Subpixel) für die Grund- farben Rot, Grün und Blau verwendet.

Super-Twisted Nematic (STN)

Bei (monochromen) STN-Displays (engl super-twisted nematic) wird der Verdrillwin- kel der Moleküle auf 180° bis 270° erhöht. Dadurch kann eine steilere elektro -optische Kennlinie und so eine verbesserte Multiplexbarkeit als bei TN- Displays erreicht wer- den. Aufgrund verschiedener technischer Beschränkungen gelingt es nur mit einigem Aufwand (doppelte Zelle = DSTN-Zelle, Kompensation mit doppelbrechenden Verzö- gerungsfolien - retarder sheets), die Darstellung farbneutral zu gestalten (d. h. nur Graustufen zwischen Schwarz und Weiß zu erzeugen).

Stattdessen sind die Hellzustände gelblich und die Dunkelzustände fallen dunkelblau (mit Violett-Ton) aus. Eine Weiterentwicklung stellt CSTN (engl color super-twist nematic) durch die Firma Sharp dar, bei dem Filter in den drei Grundfarben Rot, Grün und Blau vor den Pixeln für die Darstellung von Farben verwendet werden.

Double Super-Twisted Nematic (DSTN)

Es wurde mit verschiedenen Techniken versucht, eine Schwarz-Weiß-Darstellung auf dem Passiv-Matrix-Display zu erreichen: mit der Guest-Host-Technik, dem OMI- Ver- fahren von Martin Schadt („Optical Mode Interference“) und der Double-Super- Twi- sted-Technik. Durchgesetzt hat sich letztere als DSTN-Technik. Das Aufbauprinzip dieser DSTN-Zelle ist im Bild zu erkennen. Es liegen nun zwei STN-Schichten vor. In der aktiven Zelle - das ist diejenige, an die ein elektrisches Feld gelegt werden kann - ist der Flüssigkristall um 240° gegen den Uhrzeigersinn gedreht. Die passive Zelle enthält ebenfalls nematisches Material, das hier aber um 240° mit dem Uhrzeigersinn gedreht vorliegt. Beide Zellen sind so zueinander gedreht, dass die Orientierung der Stäbchen an der Eingangsseite senkrecht zu der an der Ausgangsseite ist. Die Polarisationsfolien sind ebenfalls um 90° gegeneinander gedreht.

Aufbauschema einer DSTN-Flüssigkristallzelle

In der konventionellen TN- oder STN-Zelle erhält man nach dem Durchgang linear po- larisierten Lichtes genau betrachtet nicht einfach linear polarisiertes Licht mit verdreh- ter Schwingungsebene, sondern elliptisch (oder zirkular) polarisiertes Licht. Die Spitze des elektrischen Feldvektors beschreibt eine Ellipse oder einen Kreis.

Solches Licht geht durch den Polarisator hindurch, wobei die durch den Dichroismus bewirkte Farbaufspaltung - abhängig von der Polarisation und der Folienorientierung am Strahlaustritt - zu farbigem Licht führt.

Zur Funktion von DSTN-Zellen

Die Arbeitsweise von DSTN-LCD verdeutlicht: Weißes Licht fällt auf den hinteren Po- larisator (im Bild unten) und wird dort linear polarisiert. Dann gelangt es in die aktive STN-Zelle, die (ohne Feld) nun zirkular polarisiertes Licht daraus erzeugt. Dieses Licht ist - wie bei der herkömmlichen STN-Zelle - durch Dichroismus verändert. Der Weg durch die anschließende passive Zelle (die das gleiche Flüssigkristall -Material enthält wie die erste - aktive - Zelle, aber in entgegengesetzter Richtung verdreht) führt zur Kompensation der Farbaufspaltung (die Phasendifferenz wird gleich Null). Als Ergeb- nis liegt linear polarisiertes Licht vor, das die gleiche Schwingungsebene aufweist wie zuvor nach dem Passieren der hinteren Polarisationsfolie. Weil aber der vordere Polari- sator um 90° verdreht ist, lässt er kein Licht durch: Der Bildschirm ist an dieser Stelle schwarz. Liegt an der aktiven Zelle ein elektrisches Feld an, dann geht das linear polarisierte Licht aus dem hinteren Polarisator dort glatt hindurch, ohne verändert zu werden. Erst in der passiven Zelle erfolgt nun zirkulare Polarisation. Weil aber zirkular polarisiertes Licht von Polarisatoren nicht zurückgehalten wird, ist der Bildschirm an dieser Stelle hell. Durch genaues Justieren sowohl des verwendeten Materials als auch der Zellen- abmessungen wird das durchgelassene Licht weiß.

Auf diese Weise wurden Displays realisiert, die ein sauberes Schwarz-Weiß mit einem Kontrastverhältnis von bis zu 15:1 bieten.

Triple Super-Twisted Nematic (TSTN; heutzutage als TN oder Film-TN bezeichnet) Aufbauschema einer TSTN-Flüssigkristallzelle: Das Licht der Beleuchtung wird pola- risiert , gefiltert , durchquert die hintere Glasscheibe , den STN- Flüssigkristall , die vordere Glasscheibe, die vordere Filterfolie, den vorderen Polarisator und tritt schließ- lich farbig aus .

Der komplexe Aufbau einer DSTN-Flüssigkristallzelle bedingt einen relativ hohen Aufwand bei ihrer Herstellung. Es wurde deshalb ein neues Verfahren entwickelt, das zu flacheren Displays mit geringerem Gewicht fuhrt. Diese neue Lösung trägt den Na- men„Triple Super-Twisted Nematic“-LCD (TSTN). Das Bild zeigt das Aufbauprinzip eines solchen TSTN-Displays.

Hier findet sich nur eine STN-LC-Zelle. Die Farbstörungen der normalen STN- Tech- nik werden durch zwei spezielle Folien ausgeglichen, die vor und hinter der Zelle - zwischen Polarisator und Glas - angebracht sind. Diese Folien sind verantwortlich für einen weiteren Namen dieser Technik: FST, was bedeutet„Film- Super-Twisted“ (ge- legentlich bezeichnet man Displays, in denen nur eine Kompensationsfolie verwendet wird, als FST-, solche mit zwei oder mehr Folien als TST-LCD; ebenfalls geläufig ist die Bezeichnung FSTN für Film-STN). Der verbesserte Kontrast (bis zu 18:1), das ge- ringere Gewicht und die flachere und weniger aufwendige Bauweise haben TSTN-LC- Displays zum Durchbruch verholfen. In Notebook-Computern wurden solche Displays als„VGA-Bildschirm“ erstmals realisiert.

Vertical Alignment (PVA und MVA)

Multi-domain Vertical Alignment

Bei der Pattemed-Vertical-Alignment-Technik, auch kurz PVA genannt, handelt es sich um eine Weiterentwicklung der Multi-Domain-Vertical-Alignment-Technik (MVA) ei- nes Herstellers. Beide Techniken basieren auf einem ähnlichen Verfahren. Die Vorteile von MVA-/PVA-Bildschirmen liegen in einem höheren Kontrast (> 1000:1 ist üblich) als bei einem TN-Bildschirm (< 800:1). Zudem bieten MVA-/PVA-Bildschirme eine große Blickwinkel-Unabhängigkeit. Der Nachteil von MVA/PVA-Bildschirmen ist, dass sie langsamer als TN -Bildschirme und daher für Bewegtbilder - wie bei Spielen und Videos - weniger gut geeignet sind. Zudem liegt der Preis über dem von TN- Bild- schirmen.

In-Plane Switching (IPS)

Bei der In-Plane-Switching-Technik (IPS, englisch für in der Ebene schaltend) befinden sich die Elektroden nebeneinander in einer Ebene parallel zur Display- Oberfläche. Bei angelegter Spannung drehen sich die Moleküle in der Bildschirmebene; die für TN- Displays typische Schraubenform entfällt. IPS verringert die Blickwinkelabhängigkeit des Kontrastes.

An Untertypen unterscheidet man zwischen S-IPS (Super IPS), AS-IPS (Advanced Su- per IPS), A-TW-IPS (Advanced True White IPS), H-IPS (Horizontal IPS), seit 2009 E- IPS (Enhanced IPS) sowie seit 2011 AH-IPS (Advanced High Performance IPS).

Bis auf den H-IPS-Typ lassen sich die anderen IPS-Typen daran erkennen, dass sie, seitlich betrachtet und im Gegensatz zu VA-Panels, einen leichten lila Farbton aufwei- sen. Die E-IPS-Technologie, die 2009 auf den Markt kam, bietet einen noch größeren Blickwinkel und geringere Schaltzeiten von 5 Millisekunden. Die Weiterentwicklung PLS (Plane-to-Line Switching) wurde von Samsung entwickelt und bietet unter anderem eine höhere Transparenz (geringerer Stromverbrauch bei glei- cher Helligkeit) und das Wegfallen des bei IPS -Panels typischen Glitzer -Effektes. Die ersten Bildschirme mit PLS-Panels kamen 2011 auf den Markt.

Elektronische Ansteuerung

Bei ersten Prototyp-LCDs Anfang der 1970er Jahre wurde erkannt, dass der Gleich- strombetrieb irreversible elektrochemische Prozesse in der Flüssigkristallschicht und damit Lebensdauerbeschränkungen der Anzeige verursachen kann. Obschon es sich im Gegensatz zu LCDs nach dem dynamic Scattering mode (engl., DSM) bei TN-Zellen um einen elektrischen Feldeffekt handelt, also kein Stromfluss nötig ist, bestanden trotzdem die erwähnten Probleme beim Anlegen einer Gleichspannung. Deshalb wur- den lange Zeit alle kommerziell eingesetzten LCDs mit Wechselspannung betrieben. Im Wesentlichen ist ein LCD- Element eine kleine elektrische Kapazität, welche periodisch durch eine impulsartige elektrische Spannung umgeladen wird. Für diesen Zweck eig- neten sich die schon damals verfügbaren elektronischen Komplementär-MOS- Schaltkreise (CMOS-ICs) sowohl bezüglich einstellbarem Spannungshub wie auch Symmetrie der Eigenschaften ausgezeichnet. Einer der Vorteile von TN-Zellen ist die tiefe Betriebsspannung und damit die geringe Stromaufnahme. Schon früh wurden Flüssigkristallsubstanzen für TN-LCDs synthetisiert, welche bei 3 -Volt-Betrieb einen guten Kontrast ergaben und einen brauchbaren Betriebstemperaturbereich hatten.

Der Betrieb von Passiv-Matrix-Displays hängt davon ab, wie ausgeprägt eine elektroop- tische Schwellenspannung vorhanden ist. Weil die Ansteuerung der einzelnen Bildele- mente (Pixel) periodisch wiederholt werden muss, um nicht nur eine Zeile, sondern alle Pixel einer Matrix anzusteuern, werden z. B. die Zeilen einer Matrix sequenziell im- pulsförmig angesteuert. Bei den Kolonnen wird die Bildinformation derart eingegeben, dass bei den aktivierten Bildelementen eine möglichst große Spannungsdifferenz zu den Zeilenimpulsen und an den nicht aktivierten Bildelementen eine Spannungsdifferenz unterhalb des Schwellenwerts entsteht. Entscheidend zur Optimierung war die Erkennt- nis von Peter J. Wild, dass bei impulsartiger, periodisch wiederholter Ansteuerung der Effektivwert (englisch Root Mean Square, RMS) der Spannungsdifferenzen maßgebend ist. Detaillierte Angaben über die bestmöglichen Ansteuerungstechniken für Passiv - Matrix-Displays finden sich in weiterführender Literatur.

Wie schon erwähnt, ist eine elektrooptische Kennlinie mit ausgeprägtem Schwellenwert und daraufhin steilem Anstieg bei höherer Spannung Voraussetzung zur Realisierung von Passiv-Matrix-Displays mit vielen Zeilen und Spalten. Nur so kann ein ausreichen- der Kontrast auch bei Matrizen mit vielen Pixeln erzielt werden. Die langwierige Opti- mierung der Spannungs-Kontrast-Kennlinie durch Flüssigkristallsubstanzwahl und Zellstruktur von TN-Zellen brachte nicht die gewünschten Resultate. Es dauerte über 10 Jahre, bis 1983 der Durchbruch mit der Entdeckung der superverdrillten nematischen LCDs (englisch super-twisted nematic lcds, STN-LCDs) bei Brown, Boveri & Cie, Ba- den (heute Asea Brown Boveri, ABB) gelang. Die Kennlinie von STN-Zellen ist viel besser zur Ansteuerung von Passiv- Matrix-Displays geeignet als diejenige von TN- Zellen.

Schon relativ früh wurde versucht, jedem Pixel individuell Schalttransistoren vorzu- schalten, um derart die Kennlinienbeschränkungen eines Passiv -Matrix-Display zu um- gehen. Dazu mussten Dünnschichttransistoren (englisch thin-film transistor, TFT) ge- eigneter Dimension und Verbindungstechnik in Matrixanordnung auf dem Glassubstrat der Flüssigkristallanzeige aufgebracht werden. Man nennt eine Anzeige dieser Technik Aktiv-Matrix-Display, weil der Betrieb der einzelnen Pixel durch die zugeordneten Transistoren aktiv gesteuert wird. Obschon die Ideen dazu bereits 1968-1973 bei der Radio Corporation of America (RCA) und bei Westinghouse Research Laboratories, USA, formuliert wurden, dauerte es noch lange, bis die technologischen Voraussetzun- gen für die Massenfertigung erarbeitet waren.

Insbesondere wurde mit verschiedenen Halbleitermaterialien experimentiert, bis sich schließlich eine spezielle Art von amorphem Silizium (siehe Dünnschichttransistor) als am besten geeignet für Feldeffekttransistoren in Dünnschichttechnik durchsetzte. Dieser materialtechnische Durchbruch gelang in Europa. Bei der Realisierung von kommerzi- eilen Produkten waren japanische Firmen federführend. Ohne die erwähnten Fortschrit- te bei der elektronischen Ansteuerung wären großflächige Fernseh- Flüssigkristallbildschirme nicht möglich geworden. Allerdings sind Aktiv- Matrix- Displays wegen der zahlreichen zusätzlichen Prozessschritte für TFTs in der Herstel- lung teurer und können zudem deswegen Pixelfehler aufweisen, sodass für einfachere Anzeigen mit geringerem Informationsgehalt immer noch Passiv-Matrix- Displays zum Einsatz kommen.

Kontaktierung

Von Beginn an bestand die Aufgabe, die transparenten Leiterbahnen auf beiden LCD- Glassubstraten mit der Ansteuerungselektronik zu verbinden. Dazu wurden neuartige Verbindungstechniken entwickelt.

Für Anzeigen mit nicht zu engem Kontaktraster kommen sogenannte Zebras (siehe Leitgummi) zum Einsatz, welche abwechselnd aus isolierenden und leitenden Elasto- mer„kanälen“ bestehen. In nebenstehender Aufnahme mit einem Vergleichsmaßstab in cm ist das dunkle Raster des Zebragummis von 180 Mikrometer deshalb nur bei An- klicken des Bildes mit Vergrößerung sichtbar: im rosaroten isolierenden Elastomer- Band befinden sich die schwarzen Leitelemente, separiert durch isolierende Elemente. Durch den Aufbau (die Elemente sind wesentlich kleiner als die zu kontaktierenden Flächen) spielen Lagetoleranzen des Gummis keine Rolle. Der Gummi kann Maßtole- ranzen abfedern. Typische Anwendungen sind Displays mit Siebensegmentanzeigen.

Früh wurden auch Lösungen mit Chip-on-Glass erprobt. Dabei wurden auf die Kontakte der Ansteuerungsschaltkreise Lötpunkte aufgebracht, dann der Chip auf den korrespon- dierenden Kontakten der Anzeige positioniert und daraufhin bei erhöhter Temperatur angelötet.

Einen wichtigen Fortschritt bedeutete die Verwendung von flexiblen, dünnen Leiter- platten mit entsprechenden Verbindungsbahnen zur Anzeige, welche ein sehr enges Kontaktraster erlauben. Diese Leiterplatten tragen auch oft die ICs als Nacktchips (Flip- Chip-Montage), die die digitalen seriellen Datenströme wandeln. Passiv-Matrix-Displays

Bei Passiv-Matrix-Displays werden die Bildelemente (ein Segment oder ein Symbol) im Zeitmultiplexbetrieb angesteuert. Das heißt, dass jedes Bildelement direkt und per- manent mit einer Ansteuerschaltung verbunden ist, deren Ausgang einen geringen Wi- derstand hat. Deshalb baut sich die zum Zeitpunkt der Adressierung aufgebrachte La- dung relativ schnell wieder ab und muss in der folgenden Bildperiode (engl frame) wieder erneuert werden. Dieser Wechsel in der elektrischen Ansteuerung fuhrt zu aus- geprägten Modulationen der optischen Antwort der Anzeige (sog. frame response).

Bei Adressierung und Ansteuerung über eine Matrix mit aktiven Bauelementen bei Ak- tiv-Matrix-Displays wird zum Zeitpunkt der Adressierung eine Ladung auf das Bil- delement aufgebracht, dem meist noch ein zusätzlicher Kondensator parallelgeschaltet ist (Speicherkondensator). Nach dem Aufbringen der Ladung, deren Höhe der Datenin- formation entspricht, wird das aktive Bauelement (meist ein Dünnschichttransistor, TFT) wieder in den hochohmigen Zustand geschaltet, wodurch die Ladung und somit die Ansteuerung während einer Bildperiode im Wesentlichen erhalten bleibt.

Diese Art der Ansteuerung bewirkt bei Aktiv-Matrix-Displays eine höhere effektive Spannung über dem Bildelement, damit eine höhere Aussteuerung des Flüssigkristalls und damit einen verbesserten Kontrast und eine reduzierte Abhängigkeit des Kontrastes von der Betrachtungsrichtung.

Die LC-Bildschirme haben gegenüber den älteren Kathodenstrahlröhrenbildschirmen (CRT) einige Vorteile.

1. Geringere Leistungsaufnahme: Unabhängig vom Bildinhalt werden LC-Bild- schir- me über die gesamte Anzeigenfläche konstant beleuchtet. Trotz dieser prinzipiellen Schwäche ist die Lichtausbeute (englisch luminous efficacy) bei LCD mit typisch 2 bis 4 lm/W noch immer etwa doppelt so hoch wie bei Pias- mabildschirmen mit Filter- scheibe (normaler Auslieferzustand). 2. Strahlungsarmut: LCD strahlen keine Röntgenstrahlung ab (gilt auch für CRTs ab TCO 99) und erzeugen ein geringeres Magnetfeld. Elektromagnetische Fel- der werden jedoch abgestrahlt und enthalten ebenso wie bei CRTs die Bildin- formation (sog. kom- promittierende Abstrahlung, Problem Abhörsicherheit, s. Van-Eck-Phreaking).

Darüber hinaus besitzen sie ein flimmerfreies, verzerrungsfreies, bei Idealauflösung scharfes Bild, ein geringeres Gewicht sowie eine geringe Einbautiefe.

Im Gegensatz zu Anzeigegeräten mit Kathodenstrahlröhre werden Flüssigkristallbild- schirme in der Praxis nicht durch Magnetfelder wie das Erdmagnetfeld oder die Ma- gnetfelder von Oberleitung, NMR-Geräten, Transformatoren oder Lautsprechern beein- trächtigt.

Während der Entwicklung der Geräte, mindestens bis zur Entwicklung von mit TFTs angesteuerten LCD, bestanden Nachteile durch den geringen Kontrast und die langen Schaltzeiten. Mittlerweile kann die Farbwiedergabe von LCD (der darstellbare Farbraum, engl color gamut) durch Anpassung der Hintergrundbeleuchtung sogar ex- tremen Anforderungen gerecht werden (extended gamut, multi-primary display).

Ein weiteres Problem war der eingeschränkte Bereich von Betrachtungsrichtungen mit konstantem Kontrast und gleichbleibendem Farbeindruck; neuere Techniken wie In- Plane-Switching (IPS), Multi-domain Vertical Alignment (MVA) und Pattemed Verti- cal Alignment (PVA) sowie die Anwendung von doppelbrechenden Kompensationsfo- lien (retarder sheets) schafften hier Abhilfe. Diese Nachteile existieren weiterhin, sind aber bei weitem nicht mehr so gravierend wie früher. Da jeder Pixel eine eigene kleine Einheit darstellt, kommt es produktionsbedingt zu vereinzelten Fehlern (Pixelfehler): Pixel, die durchgängig nur in einer Farbe leuchten oder die vorgegebene Farbe fehler- haft wiedergeben. Je nach Anzahl der fehlerhaften Pixel werden die Displays in ver- schiedene Fehlerklassen eingestuft, die Einfluss auf den Preis haben können.

Bei der Herstellung wird die physikalische Bildauflösung festgelegt, die Ansteuerung mit einem Signal anderer Auflösung kann zu Qualitätsverlusten führen. Ein TFT - ba- sierter LC-Bildschirm liefert im Vergleich zu einem CRT-Bildschirm ein viel schärferes Bild - allerdings nur in seiner konstruktionsbedingten physikalischen Auflösung. Signale geringerer Auflösung müssen interpoliert werden und erscheinen verschwom- men. Alternativ lässt sich das Bild auch mit schwarzen Rändern zentriert in voller Schärfe darstellen (bei digitalem Anschluss lässt sich das üblicherweise im Grafikkar- tentreiber einstellen).

Die Hintergrundbeleuchtung durch sog. Kaltkathodenröhren wird gefiltert, um die Grundfarben der Pixel (zumeist rot, grün und blau) zu erhalten, allerdings muss der Kompromiss zwischen Helligkeit und Farbwiedergabequalität gefunden werden. Die Farben von LCD sind keineswegs weniger gesättigt als bei der CRT- oder Plasmabild- schirmtechnologie. Vom erzeugten Licht dringen nur etwa 4 % durch das Panel (bei weißen Bildinhalten).

Ein Grund dafür, warum Röhrenmonitore (CRT) in Tests oft besser abschnitten als Flachbildschirme, ist keinesfalls der bessere Schwarzwert im Dunkelraum und der Kon- trast zu den hellen Bildstellen, wenn kein Umgebungslicht auf den Bildschirm fällt, sondern die bessere Wiedergabe von bewegten Bildinhalten.

Mittlerweile ist die LCD -Technik jedoch so weit fortgeschritten, dass teils sogar bessere Ergebnisse (je nach Art des Panels) als mit CRT-Monitoren erreicht werden können.

Die Leuchtstoffröhren der Hintergrundbeleuchtung haben eine begrenzte Lebensdauer (etwa 100.000 Stunden). Die durch die Hintergrundbeleuchtung beeinflusste Qualität der Darstellung von Weißflächen ändert sich schon deutlich nach nur wenigen Tausend Betriebsstunden meist stärker ins Gelbliche, da sich die Leuchtstärke der Leuchtstoff- röhren mit der Zeit verringert. Allerdings lässt auch die Helligkeit von Röhrenmonito- ren im Laufe des Betriebs nach. Die Hintergrundbeleuchtung mittels LEDs ist zwar al- terungsbeständiger, zeigt aber auch je nach Typ der verwendeten Leuchtdioden und Be- triebsweise langsame Alterungserscheinungen. Zudem erlaubt Beleuchtung mittels LEDs eine kompaktere Bauweise, homogenere Ausleuchtung und Kontraststeigerung durch selektive, vom Bildinhalt abhängige Ansteuerung (LED Backlight).

Schaltzeiten und Techniken

Die Reaktionszeit moderner LCDs liegt derzeit zwischen 1 ms und 5 ms. Hierbei ist die Reaktionszeit die Zeitspanne, die bei der Änderung der Leuchtdichte (Helligkeit) eines Bildbereiches von 10 % nach 90 % verstreicht; hierbei sind 0 % und 100 % die Leucht- dichten der stationären (eingeschwungenen) Zustände. Die Bildaufbauzeit nach ISO 13406-2 ist die Summe der Schaltzeiten von Hell nach Dunkel (oder umgekehrt) und wieder zurück. Aufgrund des asymptotischen Schaltverlaufs werden jedoch nach ISO 13406-2 Schaltzeiten von < 3 ms benötigt, um sichtbare Schlierenbildung zu vermei- den.

Formeln

Die Einschaltzeit Ton (zunehmende Spannung) und die Ausschaltzeit Toff

(abnehmende Spannung) ergibt sich nach den Formeln von Jakeman und Raynes.

Hierbei ist yl die Rotationsviskosität des Flüssigkristalls, die die„Trägheit“ des Flüs- sigkristalls auf eine Änderung der Ausrichtung beschreibt; d der Abstand

zwischen den Glasplatten (= Dicke der Flüssigkristallschicht); und k die Elastizitäts- konstante, welche die„Kraft“ (Drehmoment) der Rückstellung der Kristalle in die ur- sprüngliche Ausrichtungslage angibt.

Beispielsweise beschleunigt ein großes k die Rückstellung des Kristalls in den Aus- gangszustand, wirkt jedoch auch der Ausrichtung des Kristalls bei Anlegen einer Spannung entgegen (durch die entsprechend erhöhte Schwellenspannung, Uth)

Auch lassen sich durch eine Verringerung der Schichtdicke, die Schaltgeschwindigkei- ten erhöhen. Wenn die Schichtdicke beispielsweise um 30 % verringert wird gehen die Schaltzeiten auf etwa die Hälfte zurück.

Bewegungsunschärfe Bei Hold-Type-Displays wie LCD und OLED-Bildschirmen bleibt der Zustand eines Pixels für die Dauer einer Bildperiode bestehen, bis die angelegte Spannung im Zuge des Bildaufbaus eines neuen Bildes geändert wird (Erhaltungsdarstellung). Da das Auge bei der Verfolgung eines bewegten Bildinhalts (englisch smooth pursuit eye tracking) die„Helligkeit“ über eine Bildperiode integriert, während der Bildinhalt aber fixiert bleibt, kommt es zum Verwischen des Bildes auf der Netzhaut des Betrachters. Dies fallt besonders bei der Darstellung schnell bewegter Szenen auf und wird deshalb auch als Bewegungsunschärfe (auch engl motion blur) bezeichnet. Es ist zu beachten, dass selbst bei verschwindend geringen Schaltzeiten, das heißt bei nahezu unendlich schnel- lem Schalten, wegen der Erhaltungsdarstellung die Bewegungsunschärfe nicht beseitigt wäre, weshalb der Verwischeffekt auch bei schnellen OLED-Bildschirmen auftritt Neben dieser prinzipbedingten Unschärfe erzeugt die verzögerte Annahme des Soll- Werts bei einzelnen Pixel-Elemente ebenfalls unerwünschte Effekte („Schlieren“ "Schweif', "Schmieren"), die ähnlich störend wirken. Bei heutigen LCDs ist diese Art der Bewegungsunschärfe schon erheblich reduziert. Die Reaktionszeit von„grau nach grau“ (engl gray to gray) liegt durchschnittlich bei 6 ms, dennoch können die Schalt- zeiten in extremen Situationen (weiß-nach-schwarz, schwarz-nach-weiß, schwarz-nach- grau) erheblich davon abweichen.

Ansätze zur Optimierung Viskosität

Der Bewegungsunschärfe versucht man unter anderem dadurch entgegenzuwirken, dass man die Schaltzeiten der Displays weiter reduziert, vor allem durch eine Reduktion der Viskosität der eingesetzten Flüssigkristallmaterialien.

Einfache Overdrive-Technologien

Bei der Overdrive -Technik wird an die LCD-Zelle kurzzeitig eine Spannung angelegt, die höher ist als die für den eigentlichen Helligkeitswert erforderliche. Dadurch richten sich die Kristalle schneller aus. Das nächste Bild muss hierzu zwischengespeichert wer- den. Diese Information wird zusammen mit an das jeweilige Display speziell angepas- sten Korrekturwerten verwendet, um die genaue Zeit berechnen zu können, während der die Überspannung anliegen darf, ohne dass das jeweilige Pixel übersteuert wird. Das funktioniert jedoch nicht bei der Rückstellung des Kristalls: da es nicht weniger als keine Spannung gibt (die Ansteuerung erfolgt mit Wechselspannung), muss der Kristall passiv entspannen. Durch die Zwischenspeicherung wird das Bild etwa zwei bis fünf Takte verspätet angezeigt. Dieser Versatz kann sich beim Betrachten von Filmen durch Bild- Ton-Asynchronität bemerkbar machen (der Ton eilt dem Bild voraus). Auch bei Computerspielen, die schnelle Reaktionen des Spielers verlangen, macht sich die Bild- pufferung negativ bemerkbar.

Vorverzerrung (inverse Filtering)

Hierbei wird aus den Daten des aktuellen und nächsten Bildes die Integration des Auges aus dem jeweils nächstem Bild herausgerechnet. Dazu werden ebenfalls die genauen Schalteigenschaften des jeweiligen Paneltyps benötigt.

Black Stripe Insertion

Um der Bewegungsunschärfe aufgrund der Erhaltungsdarstellung entgegenzuwirken, können die Pixel bzw. das gesamte Display auch kurzzeitig dunkel geschaltet werden. Die Dunkelphase darf bei 50 Hz Ansteuerfrequenz allerdings 55 % der Bildzeit nicht überschreiten (bei 60 Hz sind es 70 % und bei 75 Hz sind es 85 %): sonst flimmert das Bild.

Blinking Backlight

auch„strobing“ genannt: Bei der Verwendung von LEDs zur Hintergrundbeleuchtung von LCD (sogenannte LED-Femseher oder - Bildschirme) lässt sich diese Methode ein- facher als Black Stripe Insertion realisieren, da hierbei nicht die Pixel schneller ange- steuert werden müssen, sondern für Pixelbereiche bzw. das gesamte Display die Hinter- grundbeleuchtung für den Bruchteil einer Vollbilddauer ausgeschaltet werden kann.

Scanning Backlight

auch„field sequential“ genannt: Hierbei wird das LC -Display nicht mit weißem Licht, sondern nacheinander von roten, grünen und blauen Primärlichtern (häufig per LED) beleuchtet. Da bei LCD mit zeitsequentieller Ansteuerung mit den Primärfarben keine helligkeitreduzierenden Farbfilter erforderlich sind und hohe Leuchtdichten vorhanden sind, lässt sich der Helligkeitsverlust durch die Sequenzabfolge leichter kompensieren. Allerdings trifft man mit dieser Technik einen alten Bekannten der Projektionstechnik wieder: den Regenbogeneffekt.

100/120 -Hz-T echnik und 200/240-Hz-Technik

Hier werden synthetische Zwischenbilder berechnet und anschließend zusammen mit den Originalbildem ausgegeben. Dadurch erhöht sich die reale Bildfrequenz um ein ganzzahliges Vielfaches. Aus 24 fps (Kinostandard) werden so 48, 72, 96 oder sogar 120 fps. Schlieren durch Hold-Displays können so deutlich reduziert werden. Neben der Reduktion von Bewegungsunschärfen werden auf diese Weise Bewegungen und Kame- rafahrten deutlich flüssiger wiedergegeben. Allerdings kann durch die Bewegungsinter- polation insbesondere bei leicht rauschenden Bildquellen eine mehr oder weniger deut- liche Trennung zwischen Vorder- und Hintergrund im Bild beobachtet werden (Soap- Opera-Effekt). Die 100/120-Hz-Technik kommt mittlerweile (2008) in vielen höher- wertigen Displays zum Einsatz. 240-Hz- Geräte sind angekündigt. Ein weiterer Vorteil dieser Technik ist es, dass Overdrive feiner dosiert angewendet werden kann. Es ist al- lerdings zu bedenken, dass die größte Verbesserung zwischen den„100/120-Hz- Dis- plays“ und solchen mit geringeren Frameraten zu sehen ist, da das menschliche Gehirn ohne Übung nur größere Differenzen zwischen den Frequenzen bewusst verarbeiten kann.

Einsatzmöglichkeiten

In Digitaluhren und Taschenrechnern werden LCDs schon seit Anfang der 1970er Jahre verwendet. Diese einfarbigen Displays ohne Hintergrundbeleuchtung zeichnen sich durch geringsten Energieverbrauch und sehr hohe Lebensdauer aus und finden alterna- tivlos überall dort Anwendung, wo ein langer wartungsfreier Betrieb erforderlich ist.

Später fanden LCDs als Aktiv-Matrix-Displays mit Hintergrundbeleuchtung Verbrei- tung über weitere tragbare oder batteriegespeiste Geräte wie etwa Mobiltelefone, Note- books und ähnliches. Typische Auflösungen bei Computer-Flachbildschirmen reichen von 1024x768 Pixel (38 cm/15") über 2560x1600 Pixel (76 cm/30"), bis 3840 x 2160 Pixel, bei Notebooks reichen sie von 800x480 Pixel bis 3200x1800 Pixel. PDAs und portable DVD-Spieler weisen Auflösungen zwischen 320x240 und 800x480 Pixel, Displays von Standbild- und Videokameras zwischen 160x176 Pixel (84 Tausend Pixel) und 640x480 Pixel (900 Tausend Pixel) auf. Insbesondere bei Smartphones hat die Firma Apple mit dem „Retina-Display“ einen neuen Marketingbegriff für hohe Bildauflösung geschaffen. Mittlerweile haben LCD- und Plasma-Displays die Kathodenstrahlröhre weitgehend verdrängt. Dies betrifft Computermonitore (seit 2006) und Fernsehgeräte mit größeren Bilddiagonalen (seit 2008). Auch andere Anwendungsgebiete wie Oszilloskope sind schon seit längerem in der Hand von computerange steuerten LCD. 2003 wurden in Deutschland bereits mehr LCD als herkömmliche Röhrenmonitore für PCs und 2006 mehr Flachbildfemseher - also LCD und Plasmabildschirme - als Röhrengeräte ver- kauft.

Versuche, mit LCD-Matrixanzeigen Bildschirmprojektoren zu realisieren gab es ab den 1970er Jahren. Der Imagina 90 war weltweit der erste in Serie gefertigte Videogroß- bildprojektor mit Flüssigkristallbildgenerator, der sich auch für den Dauerbetrieb eigne- te.

Produktion

Die LCD-Technik hat in den letzten Jahren insbesondere durch die Entwicklung von Flachbildschirmen einen enormen Aufschwung erlebt. Große Produktionsstätten für Flachbildschirme wurden zunächst in Japan errichtet. Schon bald setzte jedoch die Ab- wanderung der Industrie in die neuen asiatischen Industrienationen ein, in denen billige Arbeitskräfte und üppige staatliche Förderung lockte. Derzeit befindet sich der Schwer- punkt der Flachbildschirmindustrie in Taiwan und insbesondere Südkorea. In Südkorea betreiben die dort ansässigen weltweit größten Flachbildschirmhersteller - Samsung, LG Display und Chi Mei Optoelectronics (CMO) - die zurzeit (2008) größten LC- Bildschirm-Produktionsstätten. Die Wanderung der Industrie geht jedoch weiter. Auf der Suche nach noch kostengünstigeren Produktionsstandorten hat der Boom in- zwischen China erreicht. Produktionsstätten zur Herstellung hochwertiger Flachbild- schirme sind dort derzeit (2008) im Aufbau.

Umweltschutz

Aus der Sicht des Klimaschutzes wird die Flüssigkristallbildschirmfertigung als pro- blematisch angesehen, da in der traditionellen Produktion sehr große Mengen klimage- fahrdender Substanzen eingesetzt würden. Im wichtigen„Arrayprozess“, in dem die TFT-Steuermatrix großflächig auf dünne Glasscheiben aufgebracht wird, werden poten- te Treibhausgase wie Schwefelhexafluorid (SF6) - GWP 22800 C02e - und Stick- stofftrifluorid (NF3) - GWP 17200 C02e - in sehr großem Umfang verwendet und in die Atmosphäre ffeigesetzt, wie eine Studie aus dem Jahre 2008 aufzeigt.

Siehe auch

-Cholesterische Flüssigkristallanzeige (ChLCD)

-Ferroelectric Liquid Crystal Display (FLCD)

-Fransenflügler beschädigt Monitore

6. Software

Software ['sof(t)we:] (dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu , Hardware 1 für die physischen Komponenten) [1] ist ein Sammel- begriff für Programme und die zugehörigen Daten. [2] Sie kann als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten.

Software bestimmt, was ein softwaregesteuertes Gerät tut und wie es das tut (in etwa vergleichbar mit einem Manuskript). Die Hardware (das Gerät selbst) führt Software aus (arbeitet sie ab) und setzt sie so in die Tat um. Software ist die Gesamtheit von In- formationen, die man der Hardware hinzufügen muss, damit ein softwaregesteuertes Gerät für ein definiertes Aufgabenspektrum nutzbar Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell ar- beiten. Es wird heute nicht nur in klassischen Computern angewendet, sondern auch in vielen eingebetteten Systemen, wie beispielsweise in Waschmaschinen, Mobiltelefonen, Navigationssystemen und modernen Fernsehgeräten.

Definition

Der Begriff Software ist bis heute nicht einheitlich und auch nicht eindeutig definiert. Das geht u. a. darauf zurück, dass„innerhalb der Softwaretechnik eine einheitliche so- lide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsge- schwindigkeit und Praxisnähe behindert“ wird. Es existieren daher verschiedene Defini- tionen, die sich je nach Autor und Kontext oft auch nur in Details unterscheiden.

Die Bezeichnung Software wird im allgemeinen Sprachgebrauch meist nur auf Pro- gramme bezogen, nicht aber auf andere Daten. Daneben können aber auch der Quell- text, weitere Daten oder die Dokumentatio je nach Definition hinzugezählt werden. Außerdem wird Software auch als Gattungsbegriff für unterschiedliche Arten von Pro- grammen verwendet (Grafiksoftware, Anwendungssoftware, Standardsoftware, Sicher- heitssoftware u. v. a.).

Etymologie

Der Ausdruck Software ist ein Kunstwort, das von John W. Tukey im Jahr 1958 im American Mathematical Monthly als Gegenstück zu dem wesentlich älteren Wort Hardware das erste Mal verwendet wurde. Dabei bezeichnet Hardware alle physischen Bestandteile eines Computers. In diesem Sinn könnten unter Software - als dem Ge- genstück zur Hardware - grundsätzlich alle elektronisch gespeicherten Daten verstan- den werden. Als Definition genügt diese Sichtweise jedoch nicht.

Definitionen nach ISO/IEC-Norm 24765

Die aktuelle ISO/IEC-Norm 24765 ersetzte die DIN-Norm 44300 und enthält für Soft- ware folgende Definitionen:

-Software ist ein Programm oder eine Menge von Programmen, die dazu dienen, einen Computer zu betreiben.

-Software sind Programme sowie die zugehörige Dokumentation. -Software sind Programme und ggf. die zugehörige Dokumentation und weitere Daten, die zum Betrieb eines Computers notwendig sind.

Welche dieser Definitionen zutrifft, hängt vom jeweiligen Kontext ab, wobei auch hier die Übergänge fließend sind.

Software als Programm

In der Softwaretechnik besteht Software aus„Computerprogrammen in jeder Erschei- nungsform, vom Quelltext bis zum direkt ausführbaren Maschinencode“. Computerpro- gramme bestehen oft aus mehreren Komponenten, die sich auch über mehrere Dateien verteilen können.

Software als Programm und Dokumentation

Im Softwarerecht (oft im Zusammenhang mit dem Softwareerwerb) wird Software auch als Softwareprodukt bezeichnet, das„als Beiwerk zusätzlich Bestandteile wiez.B. die Dokumentation in digitaler oder gedruckter Form enthalten kann oder muss“. So auch im Urheberrecht, bei dem das Entwurfsmaterial zur Software gehört, wie der Quelltext, auch Quellprogramm genannt. D. h. der Urheberrechtsschutz gilt i. d. R. auch für den Quellcode [als Schutzgegenstand].

Software als Programm, Dokumentation und Daten

Einige Definitionen nennen neben dem Programm selbst (und evtl der Dokumentation) auch weitere Daten als zur Software gehörend („zugehörige Daten“). Im Glossar des IEEE für Softwareentwickler werden Beispiele für derartige nicht-ausführbare Soft- wareteile genannt, wie Schriftarten, Grafiken, Audio- und Videoaufzeichnungen, Vor- lagen, Wörterbücher, Dokumente und Informationsstrukturen (wie Datenbank- Datensätze).

Weiterhin gibt es Software -Definitionen, die sämtliche Daten umschließen, die das Computerprogramm nutzt und darüber hinaus auch die Dokumentation einbeziehen. Demgegenüber gibt es auch Definitionen, die sowohl die Dokumentation, als auch die zur Verarbeitung vorgesehenen Daten ausschließen.

Eine klare Trennlinie ist jedoch nicht näher definiert, die beschreibt, welche Daten kon- kret gemeint sind (z. B. die zu verarbeitenden Daten) oder welche Daten , notwendig 1 oder , zugehörig 4 [2] sind.

Geschichte

In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Pro- grammcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Soft- ware erstmals.

Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Das entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware.

Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmals nur mit Software handelten und nur Software und keine Hardware entwickel- ten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Exi- stenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte da- mals jedoch eine erhebliche Neuerung dar.

Der logische Übergang zwischen Hard- und Software lässt sich an den frühen Spielhal- lenspielen verdeutlichen, wie das Spiel Breakout, das im April 1976 veröffentlicht wur- de. Damals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gese- hen aus„vorverdrahteten Schalttafeln“. Das von Atari produzierte Spielhallengerät verwendete keinen Prozessor. Bereits ein Jahr später, als das Spiel für den Computer programmiert wurde, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen , Hardware 1 und , Software 1 zu unterscheiden, gab es Breakout als Software. Das Spiel bestand nicht mehr aus,, vorverdrahteten Schalttafeln“, sondern aus Anwei- sungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren In- formationen, die gemeinsam auf einem Datenträger hinterlegt wurden.

Besondere Merkmale von Software Software ist immateriell und besteht aus den Sprachen und Notationen, in denen sie formuliert ist. Software kann zwar auf bestimmten Medien gespeichert, gedruckt angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur.

Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterle- gen, doch grundsätzlich ist , Software ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprä- gungen wie ein bestimmtes Anwendungsprogramm. Als Analogie dazu ist es für den Begriff ,Oper‘ oder , Zauberflöte nicht begriffsbestimmend, ob sie im Theater aufge- führt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist.

In Details unterschiedliche Bedeutungen

-Im Zusammenhang mit der Ausführung auf einem Computer wird unter Software pri- mär alles verstanden, was auf dem Rechner ausgeführt werden kann (das Programm im engeren Sinn, bestehend aus Befehlen und Datendefmitio- nen). Dazu kommen die mit den Programmen verbundenen Ressourcen, die zum Betrieb der Software erforderlich sind. Das sind, abhängig von den ver- wendeten Entwicklungswerkzeugen, zum Bei- spiel Konfigurationsdateien, Schriftart-Dateien, Lookup-Tabellen, Datenstrukturen für Datenbanken etc.

-In engstem Sinn wäre unter , Software nur von der Hardware ausführbarer Ma- schinencode zu verstehen. Jedoch fallt darunter auch alles, was durch beliebige , inter- pretierende Systeme 1 , die Teil der Systemsoftware sind, ausgeführt werden kann, wie das bei Verwendung höherer Programmiersprachen und Entwicklungsumgebungen na- hezu immer der Fall ist.

-So ist in der Softwareentwicklung (als zentraler Arbeitsgegenstand) und in der Quali- tätssicherung (als bedeutender Prüfgegenstand; siehe Softwarequalität) auch der Quell- code ein wesentliches Software-Artefakt. -Sprachlich wird der Ausdruck , Software 4 unterschiedlich verwendet: Er steht für kon- kret benannte Komponenten (Programm XY, Unterprogramm ABC, Konfigurationsda- tei XXX.INI). Er wird als Sammelbegriff für unterschiedliche Gesamtheiten/Mengen von Programmen benutzt, zum Beispiel für eine aus vielen Einzelprogrammen beste- hende Buchhaltungssoftware, für alle Anwen- düngen eines Unternehmens („unsere Unternehmenssoftware“), oder, wie be- reits erwähnt, als Typ-/Gattungsbegriff für un- terschiedliche Arten von Software (wie Grafiksoftware, Standardsoftware, Systemsoft- ware etc).

Fließende Grenze zwischen Software und Daten

Zur Verarbeitung bestimmte Daten zählen im allgemeinen Sprachgebrauch nicht zum Begriff Software. Jedoch ist die Grenze zwischen Software und Daten fließend, denn je nach Situation können Daten und Programme in unterschiedlichen Rollen auftreten und die Begriffe dabei vertauscht werden:

Auf der Dateiebene können Mischformen auftreten, beispielsweise in Office- Doku- menten oder bei einer Tabellenkalkulationsdatei. Hier enthält eine Datei sowohl Daten im Sinne von das Bearbeitete (Texte oder Zelleninhalte) als auch funktionale Anwei- sungen (Makroanweisungen, Zellformeln).

Vertauscht sind die Rollen beispielsweise, wenn ein Quellprogramm von einem Compi- ler in ein Maschinenprogramm umgewandelt wird: Sowohl das Quellprogramm als auch das erzeugte Binärprogramm sind , Daten , der Com-piler ist die Software. Ebenso verwendet ein Interpreter ein Ouellprogramm oder ein Emulator ein Binärprogramm als Daten und erzeugt daraus speicherintem den ausführbaren Code. Die so verarbeiteten Programmdateien sind Software, rollenspezifisch aber gleichzeitig Daten.

Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auf- treten kann, ist zentral in verschiedenen Disziplinen der Informatik, darunter die theore- tische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie) und die technische Informatik (z. B. Von-Neumann-Architektur). Unterscheidung zwischen Hard- und Software

Je nach Zusammenhang ist bei der Unterscheidung zwischen Hard- und Software eine oder mehrere der folgenden Bedeutungen gemeint:

Leicht veränderbare Komponente (Software) vs. schwer veränderbare Komponente (Hardware) in einem Computerdesign.

Instruktionskode (Software) vs. Universelle Maschine (Hardware).

Nicht greifbar im Sinne von Funktionsbestandteilen eines Computersystems, die sich „nicht anfassen lassen“ (Software) vs. greifbare Komponenten (Hardware). Software ließe sich über eine Telefonleitung übertragen, Hard- wäre dagegen nicht.

Die Gegensätze sind in der englischsprachigen Begriffsprägung (soft=weich, hard=hart) beabsichtigt.

Verschiedene Blickwinkel auf Software

Software kann aus vielen unterschiedlichen Gesichtspunkten betrachtet werden, zum Beispiel:

Zusammenwirken mit der Hardware (Execution) Software: Typisierung, Zusammen- hänge, Überblick

„Zwischen Hard- und Software besteht eine gewisse Aufgabenverteilung: Die Hard- ware garantiert Quantität, also Tempo und Speicherkapazität, die Software sorgt für die Abbildung der Anforderungen auf die strukturell primitive Hardware“

Obwohl dem Begriff ,Software‘ teilweise Attribute wie Flexibilität, Individualität, Lei- stungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer Tatsächlich tut , nicht von der Software, sondern ausschließlich durch die Hardware ausgeführt. Software , beschreibt lediglich, was getan werden soll und in welcher Form das geschieht.

Dazu wird auf unterster Ebene der Maschinencode der Software unter Nutzung des Be- triebssystems (d. h. ebenfalls durch dessen Maschinenbefehle) in den Hauptspeicher des Computers geladen und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugef hrt. Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von Interpretern ausgeführt wird: Diese sind ebenfalls Software, deren Ma- schinencode an der Hardwareschnittstelle ebenfalls wie beschrieben ausgeführt wird und die Maschinenbefehle nur speicherintem erzeugen. Auch Compiler, Makroprozes- soren und jede andere Art von Systemsoftware werden nach diesem Prinzip ausgeführt.

Der Maschinencode muss dafür in einer Form/Struktur vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann. Die Befehle zeigen durch ihren Inhalt und ihre Struktur an, was zu tun ist, welche Da- tenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über im Be- fehl enthaltene Adressierungsangaben) und ggf., an welcher Stelle das Programm fort- zusetzen ist.

Bei der Ausführung wirken also viele Schichten zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldin- halts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden.

Das in modernen Computern mögliche parallele Ausfuhren mehrerer Program- me/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimm- ten Ereignissen den Wechsel von einer zur anderen Task einleitet und verwaltet. Siehe auch Multitasking.

Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist,„gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“. Die Software trägt zudem maßgeblich dazu bei, wie effizient die Hardware genutzt wird. Je nach Gestaltung der Algorithmen können mit derselben Hardware unterschied- liche Systemleistungen erreicht werden.

Entwicklung von Software

Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Soft- waretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellie- rung bis hin zum Testen als wiederholbarer Prozess beschrieben.

In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erwei- tert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen.

-Software wird unter Nutzung bestimmter Verfahren, Methoden und , Werkzeuge ent- wickelt. Dabei werden unterschiedliche Entwicklungsstadien durchlaufen, in denen je- weils unterschiedliche Zwischenstände der Software entstehen: Analysetätigkeiten (zahlreiche Entwicklungsdokumente) > Programmie- rung (Quellcode) > im Betrieb (Maschinencode oder ausführbarer Code). Im engeren Sinn der Ausführung auf dem Computer gilt lediglich Letzteres als 'Software'. Siehe auch Softwareentwicklung.

-In diesem Zusammenhang ist Software Bearbeitungsgegenstand von System- Pro- grammen: Wenn z. B. ein Compiler den Quellcode eines Programms liest, verarbeitet und einen Maschinen- oder Zwischencode erzeugt, so sind das aus dessen Sicht 'Daten'.

-Einmal erzeugte Software kann mit verhältnismäßig geringen Kosten verviel- fältigt werden, die meist durch Datenträger, Werbung und dem Herstellen von Verpackung und zu Papier gebrachten Dokumentationen anfallen.

-Software verschleißt nicht durch Nutzung, unterliegt jedoch mit der Zeit der Software- alterung. -Software ist meist austauschbar, fähig zur Aktualisierung, korrigierbar und er- weiterbar, insbesondere dann, wenn bestehende Richtlinien eingehalten werden und der Quelltext verfügbar ist

Software tendiert dazu, umso mehr Fehler zu enthalten, je komplexer sie ist. Fehler werden in aktualisierten Softwareversionen oder mithilfe eines Patches und i. d. R. nach Durchführung von Softwaretests behoben. Softwarefehler bezeichnet man auch als Pro- grammfehler oder als„Bugs“.

Weil Software unter Einsatz vieler unterschiedlicher Programmiersprachen und in vie- len unterschiedlichen Betriebssystemen und Systemumgebungen entwickelt werden kann, sind Sofitwarestandards erforderlich, um Informationen System- und untemeh- mensübergreifend , verstellbar 4 und austauschbar zu machen. Siehe auch Elektronischer Datenaustausch (Beispiele), Programmierstil.

Auswahl von Software

In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Be- sonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Untemeh- mensstrategie sein oder sollen Untemehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entschei- dungsprozess vorausgehen.

Betrieb von Software

-Der Einsatz von Software erfordert je nach Einsatzbereich ein gewisses Maß an Orga- nisation, um die zusammengehörenden Teile richtig einzusetzen und durch neue Ver- sionen abzulösen (zum Beispiel in größeren Unternehmen im Releasemanagement).

-Mitunter kann Software vorkonfiguriert werden, um so eine Neuinstallation zu be- schleunigen und um Fehler bei der Konfiguration zu minimieren. Software aus Sicht der Betriebswirtschaft und Arbeitssoziologie

Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (be- triebs-) wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investi- tion betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsver- fahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbei- tungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfallt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die gei- stige Arbeit„korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverläs- siger ausführen zu können als es bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile - als Teile eines Programms - zurückgegriffen ('Software- Wiederverwendung').

Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige soft- warebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -abläufe erheblich zu ver- ändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Pro- zessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisier- ter Arbeitsabläufe) - oder gar bis zu deren vollständigen Ersatz durch IT- Lösungen. Brödner u. a. nennen das„materialisierte“ Kopfarbeit. Siehe auch Rationalisierung, Op- timierung, Taylorismus.

Kategorisierung von Software

Nach ISO/IEC 2382 wird Software wie folgt gegliedert (und bezeichnet):

-Systemsoftware: Anwendungsunabhängige Software, die das Ausfuhren von Anwen- dungssoftware ermöglichen bzw. unterstützen (z. B. Betriebssystem, sowie Gerätetrei- ber und Dienstprogramme)

-Unterstützungssoftware, d. h. Programme, die bei der Entwicklung, Wartung helfen oder eine nicht-anwendungsspezifische Leistung erbringen (z. B. Edito- ren, Compiler, Virenscanner, Datenbankmanagementsysteme, ...) -Anwendungssoftware, die den Benutzer bei der Ausführung seiner Aufgaben unter- stützt und ihm dadurch erst den eigentlichen, unmittelbaren Nutzen stiftet (z. B. eine T abellenkalkulation)

Unterteilung nach dem Grad der Individualität

-Standardsoftware wird von einem Softwareanbieter zum Einsatz bei mehre- ren/vielen Kunden erstellt, die diese Software erwerben können.

-Individualsoftware wird für einen einzelnen Anwender zur Lösung einer spezifi- sehen Aufgabenstellung individuell erstellt oder modifiziert, alternativ durch ei- nen Soft- wareanbieter oder durch eigene Entwickler bzw. Entwicklungsabtei- lungen eines Un- ternehmens.

Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standard- software unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werkliefe- rungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf.

Unterteilung nach der Art der erzeugten Ergebnisse

Diese entstehen im Verlauf des Herstellungsprozesses von Software und können bei- spielsweise sein:

-Quellcode, Zwischencode, Maschinencode, Gerätetreiber und andere erforderliche Module (als Programmbibliothek ausgeliefert)

-Installationsprogramme und dazugehörende Anweisungen

-Weitere Unterlagen wie die Dokumentation für Softwareentwickler und Soft- warebe- nutzer

Software nach der Art der Einbettung

-Nicht eingebettete Software, die nachträglich installiert wird

-Fest in einem Gerät zu dessen Steuerung untergebrachte Software (z. B. in einem ROM oder als Teil eines eingebetteten Systems) bezeichnet man als Firmware oder auch als eingebettete (oder ,embedded‘) Software

Einstufung nach Nutzungsrecht (Lizenz)

-Ad wäre -Beerware

-Cardware (auch Postcardware)

-Careware

-Crippleware

-Donationware

-Freeware

- Nagware

-Shareware

-Freie Software

Unterteilung nach Quellcode- Verfügbarkeit

-Freie Software

-Open Source

-Proprietäre Software

Einstufung nach Verfügbarkeit

-Abandonware

-Vaporware Weitere Softwarebegriffe

-Portable Software: Auf verschiedenen Computer(typen) lauffahig

-Native Software: Zur Ausführung auf einem bestimmten Computersystem erstellt oder kompiliert. Der Programmcode nutzt die individuelle Funktionalität eines bestimmten Systemtyps, Allgemeingültigkeit und Portabilität gelten nicht als Entwicklungsziel. -Bananenware (unausgereifte Software)

-Schlangenöl (Programm ohne echte Funktion, wird aber als Wundermittel an- geprie- sen)

-Shovelware (Sammlung von Software, wobei die Quantität zählt)

-Riskware

-Bloatware (mit Funktionen ohne synergetischen Nutzen überladene Software)

Spyware -Gebraucht-Software

Lizenzmodelle

Die Verbreitung und Nutzung von Software unterliegt dem Urheberrecht. In diesem Zu- sammenhang gibt es mehrere typische Überlassungsmodelle:

Verkauf

Der vollständige Verkauf von Software, inklusive der Überlassung von Weiterverbrei- tungsrechten, kommt praktisch nur zwischen Unternehmen vor, in der Regel im Rah- men von Auftragsprogrammierung oder beim Verkauf eines Softwareentwicklungsun- temehmens.

Nutzungsrecht

Bei der meisten Software, die zum Beispiel für PCs„gekauft“ werden kann, wird in Wirklichkeit nur ein Nutzungsrecht überlassen. Dieses Modell ist auch bei der Auf- tragsprogrammierung üblich, bei der ein Unternehmen ein Programm für den Eigenge- brauch eines anderen Unternehmens speziell entwickelt. Bei Freeware ist dieses Recht kostenlos, was nicht mit freier Software verwechselt werden darf.

Die Software wird bei einem Dienstleister gehostet, die eigentliche Nutzung der Soft- ware kann entweder pro Zeitraum oder pro Nutzungseinheit berechnet werden. Sie fin- det oft auf einem einfachen PC und z. B. per Webbrowser statt.

Freie Software/Open Source/GPL

Freie Software darf von jedem genutzt, beliebig verändert und weiterverbreitet werden. Oft unterliegt dieses Recht gewissen Einschränkungen, wie zum Beispiel der Nennung des Autors oder die Verpflichtung, veränderte Versionen unter die gleiche Lizenz zu stellen (GPL). Software, die nicht zu dieser Gruppe zählt, wird proprietär genannt. Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen.

Siehe auch: Lizenzen der freien Software und Lizenzmanagement Freie Software und Open Source

, Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches Problem begreift. Wobei„frei“ hier nicht„kostenlos“ bedeutet (, Freie Software’ ist nicht dasselbe wie , Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entschei- dung für oder gegen freie Software deshalb primär eine ethische und soziale Entschei- dung.

Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quelloffene Soft- ware als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein soll- te, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor. Eric S. Raymond hat den Begriff ,Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema , Freiheit’ Geld- geber für solche Projekte abschrecken könne.

Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quellof- fenen Code, was in zahlreichen Projekten mündet, in denen sie Zusammenarbeiten.

7. Anwendungssoftware

Als Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Appli- kation; englisch application Software, kurz App) werden Computerprogramme bezeich- net, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen. Sie dienen der„Lösung von Benut- zerproblemen“. Beispiele für Anwendungsgebiete sind: Bildbearbeitung, E-Mail- Programme, Webbrowser, Textverarbeitung, Tabellenkalkulation oder Computerspiele. Aus dem englischen Begriff application hat sich in der Alltagssprache auch die Be- zeichnung Applikation, kurz App, eingebürgert. Im deutschen Sprachraum wird die Abkürzung App seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit mobiler App gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartpho- nes und Tabletcomputer. Allerdings wird inzwischen auch teilweise Desktop- Anwendungssoftware App genannt, zum Beispiel bei Microsofts Betriebssystem Win- dows seit Windows 8 (Windows-Apps), das sowohl auf Desktop- PCs als auch Tablets eingesetzt wird, oder bei Apples Betriebssystem macOS mit dem Mac App Store.

In Unternehmen

Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standard- software, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individualsoftware eingesetzt. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie Enterprise- Resource-Planning-Systeme oder Portal-Software) spricht man auch von Business- Anwendungen, Business Software oder Untemehmenssoftware.

Auf Mobilgeräten

Mobile Apps können über einen in das mobile Betriebssystem integrierten App Store bezogen und direkt auf dem Gerät installiert werden. Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und müssen nicht installiert werden.

In Webbrowsern

Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Webanwendungen erfordern im Gegensatz zu Desktop- Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumge- bungen.

Abgrenzung zu systemnaher Software

Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und Dienstprogrammen. Dazu„zählen die Programme, die für den korrekten Ablauf einer Rechenanlage erforderlich sind, sowie alle Programme, die die Programmerstellung un- terstützen, z. B. Übersetzer und Testwerkzeuge und allgemeine Dienstleistungen bereit- stellen (Formatierung, Dateiverwaltung, Datentransfer) die aber keinen Endbenutzer- bezogenen 'Nutzen' bringen.

Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Datenbanksysteme.

Anwendungssoftware kann sowohl lokal auf einem Desktop-Computer (Desktop- An- wendung) bzw. auf einem Mobilgerät installiert sein oder auf einem Server laufen, auf den vom Desktop-Computer bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgefiihrt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware.

8. Mobile App

Als Mobile App (auf Deutsch meist in der Kurzform die App [er], eine Abkürzung für den Fachbegriff Applikation; teils auch das App[l]; auf engl [aep] als Kurzform für englisch application) wird eine Anwendungssoftware für Mobilgeräte beziehungsweise mobile Betriebssysteme bezeichnet. Obwohl sich der Begriff App auf jegliche Art von Anwendungssoftware bezieht, wird er im deutschen Sprachraum oft mit Anwendungs- software für Smartphones und Tablets gleichgesetzt. Bei mobilen Apps wird zwischen nativen Apps, die nur auf einer Plattform funktionieren, und plattformunabhängigen Web-, Hybrid- und Cross-Plattform-Apps unterschieden.

Es gibt sie für die verschiedensten Bereiche, diese reichen von einfachsten Dienstpro- grammen und Spaßanwendungen mit nur einer Funktion bis hin zu Programmpaketen mit umfangreicher Funktionalität. So zum Beispiel Office-Anwendungen, Spiele, Rat- geber, Fitness- Apps, zur Emulation älterer Heimcomputer und programmierbarer Ta- schenrechner, als Hilfestellung für Diabetiker und vieles mehr. Mithilfe von mobilen Remote-Apps werden zunehmend digitale Geräte ferngesteuert, wie zum Beispiel Ka- meras, Action-Camcorder oder Quadrocopter. Der Großteil dieser Apps ist kostenlos, ein kleinerer Teil muss, für meist geringe Beträge, im jeweiligen App Store gekauft werden.

Mit Webbrowsern, wie z. B. dem Dolphin Browser, ist das Surfen im Internet auf ei- nem Mobilgerät möglich

Schon die ersten Mobiltelefone enthielten oft kleine Anwendungen wie etwa Kalender, Taschenrechner oder kleine Spiele. Diese waren vom Hersteller für das jeweilige Be- triebssystem konzipiert, fest installiert und nur mit Root-Rechten löschbar. Mit dem Er- scheinen von Java auf Mobiltelefonen (Java ME) bekamen Anwender die Möglichkeit, einfache Anwendungen und Spiele von ihrem Mobilfunknetzbetreiber oder aus dem In- ternet über WAP (MIDlets) herunterzuladen, die häufig schon plattformunabhängig wa- ren. Es entwickelte sich eine Hobby- Programmiererszene, aber auch professionelle Softwarehäuser boten solche Anwendungen kostenpflichtig an. Auch auf diversen PDAs konnten Anwendungen installiert werden. Als Vorläufer von Smartphone-Apps können die Palm-OS-PDA- Anwendungen gelten, die meist nur aus einer Datei beste- hen und nach dem Transfer direkt nutzbar sind. Auf Psion-Organisem konnten Pro- gramme mit dem Gerät selbst erstellt werden.

Für Mobiltelefone mit eigenem Betriebssystem und der Möglichkeit, entsprechende Apps zu installieren, setzte sich um das Jahr 2000] der Begriff Smartphone durch. Die- ser Begriff wurde der im Mobilbereich erstmals von Ericsson für den Prototypen GS88 verwendet. Weite Verbreitung fand um dieselbe Zeit die Communicator-Serie von No- kia, auf deren späteren Modellen das Betriebssystem Symbian lief. Zu den ersten im Massenmarkt verfügbaren Smartphones zählten 2002 das Siemens S55 und das Nokia 7650, auf denen sich Java-Programme manuell übertragen und ausführen ließen. Erst mit dem Erscheinen des Apple iPhone 2007 und später der Android-Mobiltelefone und weiteren Smartphones wurde die Möglichkeit der Installation von Anwendungen auf mobilen Geräten breiten Bevölkerungskreisen geläufiger, unterstützt durch entspre- chend verstärktes Marketing der Hersteller. Auf den meisten Smartphones sind einige Apps, wie zum Beispiel ein Webbrowser, ein E-Mail-Programm und ein Kalender, be- reits vorinstalliert. Im Juni 2016 wurden allein für iOS über zwei Millionen Apps ange- boten.

Weltweit wurden im Jahr 2016 über 90 Milliarden Apps heruntergeladen (iOS-App- Store und Google-Play-Store). In Deutschland stieg der Umsatz im Vergleich zum Vor- jahr um 40 Prozent auf 750 Millionen Dollar. Durchschnittlich verbrachte ein Android - Smartphone-Nutzer mehr als 1,5 Stunden am Tag in Apps. Die Liste der beliebtesten Apps (die meisten Downloads) in Deutschland führt 2016 WhatsApp an, gefolgt von Facebook Messenger und Facebook-App. Den vierten Platz belegt Snapchat und auf Rang fünf folgt Instagram. Die umsatzstärksten Apps waren Lovoo, Spotify und Tinder.

Native Apps

Native Apps zeichnen sich dadurch aus, dass sie speziell an die Zielplattform angepasst sind. Da eine native App die Programmierschnittstellen (APIs) der Zielplattform direkt benutzt, ist die Bandbreite der Anwendungen sehr hoch. Zudem kann auf alle plattform- spezifischen Hard- und Software-Funktionen zugegriffen werden, wie Dateien, GPS, Beschleunigungssensoren, Mikrofon und Kamera. Durch die verschiedenen Software- Plattformen ist es jedoch nicht möglich, etwa eine Android-App auf einem iPhone auf- zuspielen oder umgekehrt. Somit muss ein Softwareunternehmen die Anwendung für jedes Endgerät einzeln entwickeln. Jede mobile Plattform besitzt ihr eigenes Software Development Kit (SDK) und ihre eigene integrierte Entwicklungsumgebung (z. B. An- droid Studio oder Xcode), welche von Entwicklern genutzt werden können. Die bevor- zugten Programmiersprachen für die größten Systeme sind:

-Java und Kotlin für Googles Android

-Objective-C und Swift für Apples iOS

-C#, C und C++ für Microsofts Windows

Mit nativen Apps können die verschiedensten Typen von Geräten auf einmal bedient werden, wenn alle auf einer Plattform basieren. So ist es mit der Universal Windows Platform möglich, auf einmal native Windows-Apps für Desktop-PCs, Laptops, Tablets, Smartphones und die Xbox One zu schreiben. Plattformunabhängige Apps

Die rasante Entwicklung unterschiedlicher Betriebssysteme, wie Android, Windows, iOS und mobiler Endgeräte, von Smartphones, über Tablets bis zu Notebooks und Smart-TVs, bringt Unternehmen zum Umdenken. Laut einer Studie des Marktfor- schungsinstitutes GfK nutzen mehr als 60 % der Erwachsenen in den USA mindestens zwei Geräte täglich und etwa 25 % mindestens drei Geräte. Daher ist es wichtig, dass die App auf allen unterschiedlichen Geräten verfügbar ist und problemlos funktioniert. Diese Erwartungshaltung hat den Bedarf nach plattformunabhängige Hybrid- und Cross-Plattform-Anwendungen erhöht.

Plattformunabhängige Apps werden gerade in Unternehmen, die unterschiedliche Gerä- te benötigen, immer wichtiger. Vor allem durch das Aufkommen des Phänomens Bring your own de vice (kurz: BYOD, auf Deutsch in etwa:„Bring Dein eigenes Gerät mit“) werden Unternehmen vor die Aufgabe gestellt, firmeninterne Programme und Anwen- dungen für alle Betriebssysteme und Gerätearten bereitzustellen. Auch spielt Mobilität, beziehungsweise Flexibilität eine tragende Rolle. Eine Anwendung, die auf Desktop- Computem läuft, soll z. B. auch bei dem externen Kundenbesuch auf dem Tablet funk- tionieren oder unterwegs auf dem Smartphone. Dabei wird versucht, möglichst einfach für mehrere Plattformen gleichzeitig zu entwickeln. Google portiert dazu große Teile des Quellcodes von Inbox, mit Hilfe der Software„J20bjC“, von Java nach Objective- C. Auch Microsoft bietet mit der„Windows Bridge“ eine Möglichkeit, Windows Apps mit iOS APIs zu entwickeln.

Web Apps

Mit einem Webbrowser können Web-Apps (z. B. Büroprogramme) aufgerufen werden, z.B. Google Docs.

Siehe auch: Webanwendung und Progressive Web App

Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und bedür- fen keiner Installation. Sie benutzen Webstandards wie HTML5 oder JavaScript, damit sie auf beliebigen Endgeräten betrieben werden können. Im Gegensatz zu mobilen Apps, die für jede Plattform neu implementiert werden müssen, kann eine Implementie- rung von Web-Apps auf vielen verschiedenen Plattformen genutzt werden. Eine mobile Web-App verhält sich im Idealfall genau so wie eine native App, wird also vom Nutzer nicht wie eine Webseite wahrgenommen, sondern bietet stattdessen eine Benutzerober- fläche, die sich in das mobile Endgerät optisch und ergonomisch integriert. Nachteile von Web-Apps sind, dass sie nicht auf alle Hardware-Komponenten zugreifen können und dass die zur Verfügung stehende Datenübertragungsgeschwindigkeit eine wichtige Rolle spielt. Eine langsame Internetverbindung (beispielsweise bedingt durch schlech- ten Netzempfang) kann zu spürbaren Verzögerungen in der Interaktivität führen.

Bei der Nutzung von Web-Apps müssen meist mehr Daten übertragen werden als bei der Nutzung einer nativen App. Somit können höhere Übertragungs -Gebühren (beson- ders Roaming-Gebühren im Ausland) für den entstehenden Datenverkehr ein Hindernis für viele Nutzer darstellen, mobile Web-Apps z. B. im Urlaub zu nutzen.

Das Zwischenspeichern der benötigten Daten in einem lokalen Speicher (Cache) stellt einen praktikablen Ausweg dar, um diese auch im Offline -Betrieb zur Verfügung zu stellen. Allerdings ist die im Gerät mit Hilfe von Web-Storage-Technik zu speichernde Datenmenge meist stark begrenzt.

Mobile Web-Apps können, im Gegensatz zu allen anderen Typen von mobilen Apps, nicht in App Stores angeboten werden.

Hybrid-Apps

Hybrid-Apps stellen eine Sonderform einer mobilen App dar. Sie vereinen die Vorteile von nativen und Web-Apps, indem sie auf viele Hard- und Software-Komponenten des mobilen Endgeräts zugreifen und gleichzeitig unterschiedliche Plattformen bedienen können. Sie können sowohl auf unterschiedlichen Mobilgeräten (Smartphone & Tablet) und PCs als auch auf unterschiedlichen Betriebssystemen laufen.

Hybrid-Apps vereinen die Vorteile von nativen Apps und Webanwendungen, indem Quellcode plattformübergreifend verwendet werden kann. Der Code wird in Webtech- nologien wie HTML-, CSS- und JavaScript geschrieben. Hybrid-Apps laufen - für den Nutzer nicht sichtbar - innerhalb des nativen Webbrowsers der jeweiligen Plattform, z. B. Safari oder Google Chrome. Durch das genutzte Framework werden alle Bedienele- mente des Browsers, wie beispielsweise die Menüleiste mit URL- oder Lesezeichen- Leiste unterdrückt.

Für die Entwicklung von Hybrid-Apps stehen verschiedenen Frameworks zur Verfü- gung. Eine der größten Entwicklungsplattformen ist Cordova der Apache Software Foundation und das darauf basierende PhoneGap von Adobe. Es bieten weitere Unter- nehmen wie Ansca Mobile mit dem Corona SDK und Drifty mit Ionic Lösungen zur Entwicklung von Hybrid-Apps an. Es gibt verschiedene Entwicklungsumgebungen, wie zum Beispiel Microsofts Visual Studio, die die Entwicklung von Hybrid-Apps unter- stützen.

Das Framework lädt eine Bibliothek, die die Kommunikation zwischen JavaScript und der jeweiligen betriebssystemspezifischen Sprache herstellt. Dadurch können Hybrid- Apps auf diverse Hard- und Software-Komponenten des mobilen Endgerätes zugreifen. Ein Zugriff ist unter anderem auf Kontakte, Kamera, Bewegungssensor, GPS und Da- teien möglich. Moderne Render-Engines erhöhen die Berechnungsgeschwindigkeit der Interpretation des HTML5-, CSS3- und JavaScript- Codes. Dadurch kann die Ausfüh- rungsgeschwindigkeit um ein Vielfaches erhöht werden. Durch Technologie wie WebGL werden komplexe 3D-Grafiken ohne zusätzliche Erweiterungen durch die Hardware beschleunigt.

Ein wesentlicher Vorteil der Hybrid-Apps liegt darin, dass mit einer Entwicklung viele Plattformen abgedeckt werden können und keine teurere parallele Entwicklungen für die jeweiligen Ökosysteme stattfmden muss. Infolgedessen sinkt der Entwicklungsauf- wand auf Seiten des Softwareunternehmens erheblich, dadurch kann die Benutzerober- fläche und Funktionalität über mehrere Plattformen hinweg auf den gleichen Stand ge- halten werden. Jedoch können nicht alle Geräte- beziehungsweise Betriebssystemspezi- fischen Eigenschaften benutzt werden und bei der Umsetzung der Hybrid -App können plattformspezifische Interaktionsdesigns und das Look and Feel der jeweiligen Platt- form nur beschränkt beachtet werden. Zudem sind stark verlangsamte Ladezeiten und eine viel schlechtere Rechenleistung, beispielsweise bei komplexen Spielen, möglich, da sie mit der Zwischenschicht des Webbrowsers agieren.

Cross-Plattform-Apps

Eine Cross-Plattform-App ist, ähnlich einer Hybrid-App, eine Anwendung, die unab- hängig von der Plattform auf verschiedenen Betriebssystemen und Endgeräten ausge- fuhrt werden kann. Im Gegensatz zur Hybrid-App wird die Benutzeroberfläche meist mit den nativen APIs des jeweiligen Betriebssystems gebaut und nicht in einem Webbrowser angezeigt. So lassen sich bis zu 75 % des Quellcodes zwischen den ver- schiedenen Plattformen teilen, ohne dass es zu starken Einbußen bei der Performance kommt. [19] Der Quellcode wird meist in C#, C++ oder JavaScript geschrieben.

Frameworks für die Cross-Plattform-Entwicklung sind die„Xamarin Plattform“ von Xamarin, Appcelerators„Titanium Mobile“ und React Native von Facebook. Alle drei Frameworks unterstützen die Entwicklung von Cross-Plattform-Apps für Android, iOS und Windows. Mit„Xamarin. Forms“ lassen sich auch große Teile des Benutzeroberflä- chen-Codes zwischen den Plattformen teilen, dabei wird bei Laufzeit das plattform- übergreifende Platzhalter-Bedienelement in ein natives Bedienelement verwandelt.

Googles Flutter SDK ermöglicht die Entwicklung von Cross-Plattform-Apps für iOS und Android in der Programmiersprache Dart. Flutter nutzt keine nativen Bedienele- mente, sondern mit einer eigenen Rendering-Engine Gezeichnete.

Es lässt sich aber auch Model-Layer-Code in C++ zwischen diesen Plattformen teilen, ohne dass ein Framework genutzt werden muss.

Entwicklung

Siehe auch: Programmierung Bei der Entwicklung von mobilen Apps müssen einige Einschränkungen im Vergleich zu Anwendungen für Desktop-Computer beachtet werden, so sind z. B. die Prozessoren von Smartphones leistungsschwächer und laufen mit Akkubetrieb.

Zudem gibt es eine große Anzahl an verschiedenen Bildschirmgrößen, Hardwarekonfi- gurationen und Softwareversionen. Mobile Apps werden meist mit Hilfe einer integrier- ten Entwicklungsumgebung und dem Software Development Kit der entsprechenden Plattform entwickelt. Die Software kann mit einem Emulator getestet werden, bevor sie auf echten Geräten ausprobiert wird.

Viele Entwickler setzen mittlerweile auf Sprachdialogsysteme, im Gegensatz zu „normalen“ mobilen Benutzerschnittstellen. Diese können entweder in der Form von Spracherkennung, wie z. B. mit Siri, oder in Form von Chatbots, z. B. in Skype oder Facebook Messenger, umgesetzt werden. Diese Form von Interaktionen mit Anwen- dungen wächst, da viele Nutzer von der Vielzahl an Apps überwältigt werden. Microsofts CEO Satya Nadella sieht Chatbots "als nächstes großes Ding", welches so tiefgreifende Änderungen wie zuvor das iPhone für Touchscreens oder die Nutzung von grafischen Benutzeroberflächen bringen wird.

Der Beschäftigungsbereich für Softwareentwickler von Apps für mobile Plattformen wächst immer weiter, bis 2012 wurden, laut einem Bericht von„TechNet“, allein in den USA 466.000 neue Jobs geschaffen. In Europa sollen es, laut einem Bericht des„Pro- gressive Policy Institute“, Anfang 2016 1,64 Millionen Arbeitsplätze sein, die von mo- bilen Apps abhängen. Die Hersteller von mobilen Betriebssystemen versuchen mit ver- schiedenen Methoden, Softwareentwickler für ihre Plattform zu gewinnen. So will Apple im Oktober 2016 ein„iOS App Development Center“ in Neapel, Italien eröffnen, in dem Entwickler geschult werden. Google will in Indien zwei Millionen Entwickler schulen und bietet über Udacity verschiedene Kurse im Bereich der Android- Entwicklung an. Vertrieb

Apps können meist über eine in das Betriebssystem integrierte Internet- Vertriebsplatt- form bezogen und direkt auf dem Gerät installiert werden. In Folge des großen Markter- folgs von Smartphones und Tablets haben praktisch alle Hersteller mobiler Betriebssy- steme eigene Plattformen entwickelt, um die für ihre jeweiligen Geräte entwickelten Apps zu vermarkten. Die Apps können dort von Kunden kostenlos oder kostenpflichtig heruntergeladen werden. Die Vertriebsplattform mit der größten Anzahl an Program- men ist der Google Play Store für Android-Geräte, [34] gefolgt vom App Store für iOS. Daneben gibt es auch für Geräte mit anderen Betriebssystem eigene App Stores. Ein- nahmen gehen zum größten Teil an die Entwickler, der Betreiber des Vertriebsportals ist an den Gewinnen ebenfalls beteiligt. So behalten Apple, Google und Microsoft 30 Prozent des Kaufpreises einer App als Provision ein. Im Regelfall werden Apps durch die Portalbetreiber technisch geprüft, teilweise findet zusätzlich eine inhaltliche Über- prüfung statt.

Es gibt grundsätzlich verschiedene Wege, wie eine App auf ein Gerät gelangt: direkt über die mobile Internetverbindung oder WLAN des Geräts oder mit Hilfe eines PC, mit dem über entsprechende Software (wie etwa iTunes) bei Anbindung des Mobilge- räts Apps installiert werden können. Manche App -Plattformen ermöglichen es auch, die App über den PC zu kaufen und automatisch auf allen synchronisierten Geräten zu in- stallieren, wobei die App von den Geräten automatisch heruntergeladen wird. [35] Sofern die Hersteller ihr mobiles Betriebssystem auch für externe Quellen zur Installa- tion von Anwendungssoftware zugänglich halten, gibt es darüber hinaus weitere, oft plattformübergreifende Angebote durch Shops verschiedener Anbieter im Internet, so- wie die Möglichkeit des direkten Bezugs auf den Webseiten der App- Entwickler.

Datenschutz

Viele mobile Apps werden von Verbraucherschützem kritisiert, weil sie ohne das Wis- sen des Benutzers oder dessen Zustimmung Daten versenden, die für die Funktion der App gar nicht erforderlich sind oder die unverschlüsselt oder nicht anonymisiert sind, und daher leicht ausspioniert werden können. Die Betreiber von Plattformen im Inter- net, wie zum Beispiel soziale Netzwerke oder Einkaufsportale, werden mit Apps in die Lage versetzt, Daten zu sammeln und für gezielte und effiziente Werbezwecke einzu- setzen oder an Dritte weiterzuleiten. Besonders kritisch ist es, wenn zum Beispiel bei Shopping-Apps sensible persönliche Daten, wie Kontodaten oder Kreditkarteninforma- tionen, ausspioniert werden können. Viele Apps sammeln zudem Daten über automati- sierte Analytics-Dienste, wie Google Analytics oder Twitters Fabric.

Native Apps können wie alle anderen Programme Sicherheitslücken enthalten. Es be- darf daher grundsätzlich der Sicherstellung der Aktualisierungen des Endgeräts sowie der Softwarepflege durch den Anbieter. Native Apps laufen als eigenständiges Pro- gramm auf dem jeweiligen Gerät und haben damit erweiterten Zugriff auf Ressourcen. Diesem Problem wird durch die Verwendung einer Sandbox begegnet, wodurch der Zugriff auf vom Hersteller bereitgestellte Programmschnittstellen beschränkt wird, und somit reguliert werden kann.

Einsatz in Unternehmen

In Unternehmen werden Mobile Apps in verschiedenen Bereichen eingesetzt. Dabei werden Anwendungen, die im Unternehmen von den Mitarbeitern an PCs genutzt wer- den, z. B. Enterprise-Resource-Planning (ERP), Customer-Relationship- Management (CRM) oder Microsoft Outlook, auch auf den Mobilgeräten verfügbar, so dass ortsun- abhängig gearbeitet werden kann. Ein anderer Anwendungsbereich ist der Einsatz im Marketing. Apps werden dort zum Beispiel zur Unterstützung der Vertriebsmitarbeiter eingesetzt, etwa durch Bereitstellen von internen Produktkatalogen oder Ersatzteillisten mit direkter Online-Bestellmöglichkeit, auch verbunden mit der vorherigen Abfrage von Lagerbeständen und/oder Prognosen zur momentanen Lieferzeit eines Produkts.

Sicherheit

Mobile Apps bedeuten für Unternehmen im Bring-your-own-device-Kontext oft ein hohes Sicherheitsrisiko, da sie zum Teil ohne Wissen und Zustimmung der Nutzer un- geschützt sensible Daten übertragen. Das bedeutet nicht nur den Verlust vertraulicher Informationen, sondern macht Unternehmen angreif- und erpressbar. Im Untemeh- menseinsatz sorgen sogenannte Mobile-Device-Management-Systeme dafür, dass er- wünschte Apps zentral auf die Geräte verteilt werden können, zum Teil durch ein eige- nes Bezugsportal. Im Fall reiner Firmen-Smartphones oder Tablets wird die Installation anderer Apps durch den Anwender aus Sicherheitsgründen technisch häufig unterbun- den, da andernfalls ein möglicher Angriffspunkt für Industriespionage und andere Risi- ken durch Schadprogramme geschaffen würde.

Zur sauberen Trennung von Apps auf Untemehmens-Mobilgeräten mit teilweiser priva- ter Nutzung können sogenannte Persona zur Trennung der jeweiligen Daten und An- wendungen genutzt werden. Sofern im Unternehmenseinsatz nicht auf interne IT- und Sicherheitsrichtlinien verzichtet wird, kommt der herkömmliche Vertriebsweg über ei- nen App Store in der Regel nicht in Frage, denn darüber wären die - oft selbstentwik- kelten - mobilen Apps des Unternehmens auch öffentlich zugänglich. Stattdessen wer- den solche Apps durch einen Systemadministrator des Unternehmens zentral über Mo- bile- Device-Management -Lösungen dem Anwender zur Verfügung gestellt bezie- hungsweise auch automatisch auf das Smartphone installiert.

App Wrapping

Eine Möglichkeit zur Absicherung von Unternehmensdaten ist App Wrapping. Beim App Wrapping werden untemehmensrelevante Anwendungen in einer weiteren App verschlüsselt. So wird gewährleistet, dass im Unternehmen nur sichere und zugelassene Anwendungen zum Einsatz kommen. Das hat aber auch Nachteile, es kann zu Urheber- rechtsverletzungen bis hin zum Verlust von Gewährleistungsrechten kommen.

Natives App Management

Alternativ gibt es die Möglichkeit durch Mobile-Device-Management native Apps si- cher anzubieten, ohne dass die native Benutzererfahrung leidet. Diese Funktion bietet unter anderem Apple seit iOS 7, Google mit„Android for Work“ und Samsung mit Knox. 9. Internet

Das Internet (von englisch intemetwork, zusammengesetzt aus dem Präfix inter und network , Netzwerk 4 oder kurz net ,Netz‘), umgangssprachlich auch Netz, ist ein welt- weiter Verbund von Rechnernetzwerken, den autonomen Systemen. Es ermöglicht die Nutzung von Intemetdiensten wie WWW, E-Mail, Telnet, SSH, XMPP, MQTT und FTP. Dabei kann sich jeder Rechner mit jedem anderen Rechner verbinden. Der Daten- austausch zwischen den über das Internet verbundenen Rechnern erfolgt über die tech- nisch normierten Intemetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben.

Die Verbreitung des Internets hat zu umfassenden Umwälzungen in vielen Lebensbe- reichen geführt. Es trug zu einem Modernisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich geführt. Die kulturelle Bedeutung dieser Entwicklung wird manchmal mit der Erfindung des Buchdrucks gleichgesetzt.

Die Übertragung von Daten im Internet unabhängig von ihrem Inhalt, dem Absender und dem Empfänger wird als Netzneutralität bezeichnet.

Infrastruktur

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, die zusammengeschaltet sind. Darunter sind hauptsächlich

-Providemetzwerke, an die die Rechner der Kunden eines Intemetproviders angeschlos- sen sind,

-Firmennetzwerke (Intranets), die die Computer einer Firma verbinden, s<

-Universitäts- und Forschungsnetzwerke. 78

Physikalisch besteht das Internet im Kembereich, also bei Verbindungen zwischen den oben genannten Netzwerken und in den Backbones großer Netzwerke, kontinental und interkontinental hauptsächlich aus Glasfaserkabeln, die durch den Routerzu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertra- gungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber im- mens vergrößerte, besitzt das Internet hier zurzeit teilweise Überkapazitäten. Schätzun- gen zufolge wurden im Jahr 2005 nur drei Prozent der zwischen europäischen oder US- amerikanischen Städten verlegten Glasfasern benutzt. [17] Auch Satelliten und Richt- funkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen ge- ringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Ka- belmodem oder UMTS, eines Intemetproviders zu. Firmen oder staatliche Einrichtun- gen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet ver- bunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer be- reitstellen und nicht dauerhaft erreichbar sind. Solche Rechner werden als Client- Rechner bezeichnet. Server dagegen sind Rechner, die in erster Linie Internetdienste anbieten. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell ange- bunden und in klimatisierten Räumlichkeiten gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer- Anwendungen versetzen auch obige Client- Rechner in die Lage, zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen. So wird hier die strenge Unterscheidung des Client-Server- Modells aufgelöst. An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungs- starke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht.

Am DE-CIX in Frankfurt am Main, dem größten Austauschpunkt dieser Art, sind bei- spielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten auto- nomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist je- doch wirtschaftlich sinnvoller, dies gebündelt an verschiedenen Internet- Knoten vorzu- nehmen. Da in der Regel ein autonomes System, wie ein Internetprovider, nicht alle an- deren auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt.

Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog.Upstream- oder Transitprovider dem Kundenprovider alle via Internet verfügbaren Erreichbarkeitsin- formationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, so- genannte Tier- 1 -Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwik- keln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.

Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner geben soll, also keinen Ort, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for As- signed Names and Numbers (ICANN) ist als hierarchisch höchste Organisation zustän- dig für die Vergabe von IP-Adressbereichen, die Koordination des Domain Name Sy- stems (DNS) und der dafür nötigen Root-Nameserver- Infrastruktur sowie für die Fest- legung anderer Parameter der Intemetprotokollfamilie, die weltweite Eindeutigkeit ver- langen. Sie untersteht formal dem US- Handelsministerium. Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Aus- fallsicherheit bei. Für die Kommunikation zwischen zwei Nutzem existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen, und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete beziehungsweise eine Anfrage und die Antwort je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen; nur ein Ausfall der einzigen Verbin- dung auf der letzten Meile lässt sich nicht ausgleichen.

Intemetprotokoll und Domain Name System

Das Internet basiert auf der Intemetprotokollfamilie, die die Adressierung und den Da- tenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in dem die weltweit eindeutige Adressierung von ange- bundenen Rechnern festgelegt und benutzt wird, heißt Intemetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie beim Telefon, son- dern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP- Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, die jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs be- schrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Pa- ketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unab- hängig von den Netzwerktechniken der Protokoll schichten unterhalb von IP geschehen kann, ähnlich wie ein ISO-Container im Güterverkehr nacheinander per Schiff, Bahn und Lastwagen transportiert werden kann, um an sein Ziel zu gelangen. Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internet- protokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der Version IPv4 um vier Byte (32 Bit), die als vier Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Versi- on IPv6 sind dies 16 Byte (128 Bit), die als acht durch Doppelpunkt getrennte Blöcke aus je vier hexadezimalen Ziffern angegeben werden, z.B. 2001 :0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Tele- fonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele admini- strative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Überset- zungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänen- name (zum Beispiel„wikipedia.de“) kann in eine IP-Adresse übersetzt werden und um- gekehrt. Dies geschieht - vom Nutzer unbemerkt - immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP -Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, die in den Namen durch die Punkte er- kennbar wird, bilden die Root- Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kembereich des Internets müssen die IP -Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, die über den kürzesten Weg zur Ziel-IP- Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingproto- kolle automatisch erstellt und aktuell gehalten werden; so wird automatisch auf ausge- fallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP- Adressen mit Hilfe von Netzmasken - bei IPv6 spricht man von Präfixlängen - zu Ziel- netzen zusammengefasst, und diesen wird jeweils ein Ausgang des Routers, zum Bei- spiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet.

Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinfor- mationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines auto- nomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default- Route, oft auch Standard- oder Default-Gateway genannt, die für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich einem Wegweiser„Alle Richtungen“ im Straßenverkehr. Die Router im Kembereich verwalten zurzeit Routingtabellen mit bis zu 540.000 Zielnetzen für IPv4 und 21.000 für IPv6.

In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst im- mer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und für verschlüsselte Seiten das Hypertext Transfer Protocol Secure (HTTPS). E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), eben- falls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt. Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Or- ganisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige IP- Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zuge- griffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öf- fentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und die Filterung des Datenverkehrs hat mehr Möglichkeiten.

Datenaufkommen

Im Jahr 2012 betrug das Datenaufkommen im festverkabelten, öffentlich zugänglichen Internet mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die je geschrieben wurden. Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1,1 Exabyte Daten monatlich. Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussicht- lich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Da- tenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Über die Hälfte der übertragenen Daten machen Videodienste (Video-on-Demand) aus.

Weltweit wird der IP-Datenverkehr für 2017 auf 1,4 Zettabyte angenommen, allein in Deutschland werden 38 Exabyte angenommen, gegenüber einem Aufkommen im Jahre 2012 von 17 Exabyte. Dabei wird eine Steigerung im mobilen Datenverkehr mit Smart- phones und Tablets bis 2017 um jährlich 60 % auf dann 13,6 Exabyte erwartet.

10. Intemetzugang

Ein Intemetzugang (auch Intemetanschluss, Intemetverbindung) bezeichnet im Allge- meinen die Nachrichtenverbindung eines Computers oder eines Netzwerkes mit dem In- ternet.

Grundsätzlich wird unterschieden zwischen der Breitband-Datenfemübertragung (in der Regel per DSL- oder Kabelmodem) und den herkömmlichen Schmalband- Verbindun- gen per Telefonmodem oder per ISDN sowie den mobilen Verbindungen über LTE, HSDPA, UMTS, EDGE oder GPRS.

V oraussetzungen Intemetverbindungen für private Teilnehmer sind in der Regel nur mit einem Dienstlei- stungsvertrag mit einem Intemetdienstanbieter (Internet Service Provider, ISP), der gleichzeitig Zugangsdienste anbietet oder einem Intemetzugangsanbieter (Internet Ac- cess Provider, IAP) möglich (auch bei einer Intemet-by-Call-Verbindung besteht ein Dienstleistungsvertrag). Die Verbindung wird über einen Einwahlknoten bzw. einen Breitband-PoP und ein kundenseitig installiertes Modem oder ISDN- Endgerät aufge- baut, im Fall von leitungsgebundenem Zugang regelmäßig über die Teilnehmeran- schlussleitung oder das TV-Kabelnetz.

Das Endgerät muss weiter mit dem einzelnen Rechner oder dem lokalen Rechnemetz verbunden werden - per Kabel (LAN, d. h. drahtgebunden), Wireless LAN, Bluetooth (Funk) oder über das Stromnetz. Ferner ist für das Modem ein Gerätetreiber notwendig. Der Datendurchsatz des Datenaustauschs wird mit Bit pro Sekunde (bit/s oder b/s) be- messen, im weitverbreiteten DSL-Standard werden im Allgemeinen mindestens 1024 kbit/s (kilobit/s) in Download- und 128 kbit/s in Uploadrichtung übertragen.

Eine Verbindung kann über GMDSS, UMTS oder anders mobiles Internet oder einen Surfstick aufgebaut werden. Die SIM-Karten müssen zuvor für das Internet freigeschal- tet werden.

Zusammenfassend sind die folgenden telekommunikativen Verbindungen denkbar: Dial-up, ISDN, DSL-Varianten (ADSL, SDSL, VDSL, PortableDSL, Intemetzugang über Satellit), Kabelmodem, WLAN, WiBro, WiMAX, Mobilfunk (LTE, CSD, und HSCSD, GPRS, EDGE, UMTS mit HSDPA, WAP), Glasfasemetz, Trägerfrequenzan- lage (Powerline Communication) und xMax (nur in Nordamerika).

Nutzung und Technik

Modem (V.34-Standard) nach ISA-Standard, obsolet seit den 1990er Jahren

-IP-Telefonie und ISDN over IP

-Intemetsurfen (Ansteuem von Dateien, die über Server erreichbar sind, bei- spielswei- se Homepages/Websites/Netzpublikationen, E-Mails (sofern via POP3), Webcam) -Datenübertragung zwischen Server und Client, oder dezentral zwischen vielen Clients untereinander, etwa durch FTP oder Peer to Peer

-IPTV (Fernsehen)

-Internet Protocol

-Intemetprotokollfamilie

-WAP und I-mode (jeweils für moderne Mobiltelefone)

Eine Intemetverbindung besteht ab der Einwahl in das Netz des ISP, nicht zwingend durch das Aktivieren des Browser-Fensters.

Nach 24 Stunden Online-Zeit wird bei vielen Providern eine Zwangstrennung vorge- nommen.

Vertragsrecht

Die Bereitstellung der Intemetleitung ist in Deutschland gemeinhin ein Dienstvertrag. Die Abschaltung des Anschlusses erfolgt in Deutschland gern. § 45k Telekommunikati- onsgesetz, nicht nur nach jeweiliger AGB. Hierzu gibt es zahlreiche Entscheidungen in der Rechtsprechung.

11. World Wide Web

Das World Wide Web [ w3.1d waid'wcb] (englisch für„weltweites Netz“, kurz Web, WWW, selten und vor allem in der Anfangszeit und den USA auch W3) ist ein über das Internet abrufbares System von elektronischen Hypertext-Dokumenten, sogenannten Webseiten. Sie sind durch Hyperlinks untereinander verknüpft und werden im Internet über die Protokolle HTTP oder HTTPS übertragen. Die Webseiten enthalten meist Tex- te, oft mit Bildern und grafischen Elementen illustriert. Häufig sind auch Videos, Ton- dokumente und Musikstücke eingebettet.

Allgemeines

Umgangssprachlich wird das World Wide Web oft mit dem Internet gleichgesetzt, es ist jedoch jünger und stellt nur eine von mehreren möglichen Nutzungen des Internets dar. Andere Internet-Dienste wie E-Mail, IRC oder Telnet sind nicht in das World Wide Web integriert.

Zum Aufrufen von Inhalten aus dem World Wide Web wird ein Webbrowser benötigt, der z. B. auf einem PC oder einem Smartphone läuft. Mit ihm kann der Benutzer die auf einem beliebigen, von ihm ausgewählten Webserver bereitgestellten Daten herunterla- den und auf einem geeigneten Ausgabegerät wie einem Bildschirm oder einer Braille- zeile anzeigen lassen. Der Benutzer kann dann den Hyperlinks auf der angezeigten Webseite folgen, die auf andere Webseiten verweisen, gleichgültig ob diese auf dem- selben Webserver oder einem anderen gespeichert sind. So ergibt sich ein weltweites Netz aus Webseiten. Das Verfolgen der Hyperlinks wird auch als„Surfen im Internet“ bezeichnet.

Mit dem so genannten Web 2.0 wurden ab etwa den 2000er Jahren Webseiten populär, deren Inhalt der Nutzer nicht nur wie etwa bei Nachrichten-Seiten passiv ansehen, son- dern selbst ändern und ergänzen kann, z. B. um eigene Inhalte zu veröffentlichen oder mit anderen Nutzem zu kommunizieren. Dazu zählen Blogs als private Meinungsseiten, von einer losen Autorengemeinschaft geschaffene Seiten nach dem Wiki-Prinzip und Soziale Netzwerke. Serverseitige Techniken und (Skript-)Sprachen, die diese Interakti- vität umsetzen, sind vor allem CGI, Python, ASP, Apache Wicket, JSF, ColdFusion, Ruby und SSI. Zu clientseitigen Techniken, die z. B. über Filter die Inhalte individuali- sieren, gehören unter anderem CSS, JavaScript oder Java, wobei Java hauptsächlich zur plattformneutralen Ausführung von Programmen dient, die oft als Webanwendungen über das Internet geladen werden und mit intemetbasierenden Datenbanken (z. B. SAP- Clients) kommunizieren. Mit der Interaktivität wurde der Einsatz von Suchmaschinen möglich, die die bis dato vorhandenen Webverzeichnisse ergänzten und bis heute weit- gehend verdrängten.

Mit der zunehmenden Komplexität von Formaten, Protokollen und Techniken entstan- den neue Berufsbilder, wie z. B. Webdesigner und Mediamatiker. Zu ihren Aufgaben gehört neben der Programmierung von Inhalten auch die Auswertung von Nutzerverhal- ten im Rahmen der Logdateianalyse.

Das WWW wurde unter Weiterentwicklung bekannter ähnlicher Konzepte 1989 von Tim Berners-Lee und Robert Cailliau am europäischen Forschungszentrum CERN in Genf entwickelt. Berners-Lee entwickelte dazu das HTTP-Netzwerkprotokoll und die Textauszeichnungssprache HTML. Zudem programmierte er den ersten Web- Browser und die erste Webserver-Software. Er betrieb auch den ersten Webserver der Welt auf seinem Entwicklungsrechner vom Typ NeXTcube. Das Gesamtkonzept wurde der Öf- fentlichkeit 1991 unter Verzicht auf jegliche Patentierung oder Lizenzzahlungen zur freien Verfügung gestellt, was erheblich zur heutigen Bedeutung beitrug.

Die weltweit erste Webseite info.cem.ch wurde am 6. August 1991 veröffentlicht. Eine Nachbildung dieser Seite ist über nachfolgenden Link erreichbar:

http://info.cem.ch/hypertext/WWW/TheProject.html

Das WWW führte zu umfassenden, oft als revolutionär beschriebenen Umwälzungen in vielen Lebensbereichen, zur Entstehung neuer Wirtschaftszweige und zu einem grund- legenden Wandel des Kommunikationsverhaltens und der Mediennutzung. Es wird in seiner kulturellen Bedeutung, zusammen mit anderen Internet-Diensten wie E-Mail, teilweise mit der Erfindung des Buchdrucks gleichgesetzt.

Funktionsweise

Das WWW basiert auf drei Kemstandards:

-HTTP als Protokoll, mit dem der Browser Informationen vom Webserver anfor- dem kann.

-HTML als Auszeichnungssprache, die festlegt, wie die Information gegliedert ist und wie die Dokumente verknüpft sind (Hyperlinks).

-URLs als eindeutige Bezeichnung einer Ressource, die in Hyperlinks verwen- det wird.

Folgende Standards kamen später dazu: -Cascading Style Sheets (CSS) legen das Aussehen der Elemente einer Web- seite fest, wobei Darstellung und Inhalt getrennt werden.

-Hypertext Transfer Protocol Secure (HTTPS) ist eine Weiterentwicklung von HTTP, bei dem das Protokoll SSL zwischen TCP und HTTP geschoben wird und in der Folge der Datentransfer komplett verschlüsselt wird.

-Document Object Model (DOM) als Programmierschnittstelle für externe Pro- gramme oder Skriptsprachen von Webbrowsern.

Das World Wide Web Consortium (W3C), das heute vom Erfinder des WWW Tim Berners-Lee geleitet wird, und andere entwickeln den HTML- und den CSS- Standard; andere Standards kommen von der Internet Engineering Task Force, der ECMA und Herstellern wie Sun Microsystems. Nicht vom W3 -Konsortium standardisiert ist die am weitesten verbreitete Skript- oder Makrosprache von Webbrowsern:

JavaScript ist eine Skriptsprache mit Anweisungen für den Browser, mit der Program- me (Skripte) eingebettet werden können. Dadurch können Webseiten mit Hilfe des Document Object Models (DOM) dynamisch geändert werden. Skripte sind üblicher- weise kleine Programme, können aber auch als Client Manager mit Hilfe des DOM die vollständige Kontrolle über die Anzeige über- nehmen. Eine von Microsoft entwickelte Variante von JavaScript heißt JScript. Beide Sprachen sind ähnlich, allerdings nicht kompatibel zueinander. Diese Inkompatibilität war ein entscheidender Teil des soge- nannten Browserkriegs.

Das WWW wurde und wird durch andere Techniken ergänzt. Schon früh wurden Bilder zur Illustration benutzt; man verwendete die Formate GIF für Grafiken und Animatio- nen und JPEG für Fotos. Später wurde GIF mehr und mehr von PNG verdrängt, da für dessen Verwendung - im Gegensatz zu GIF - keine Lizenzgebühren anfielen.

Zudem konnten in Browsern zahlreiche weitere Dateitypen durch Browsererweiterun- gen, so genannte Plug-ins, dargestellt werden. Dadurch ließen sich Multimediainhalte von Animationen bis hin zu Musik und Videos oder ganze Anwendungen wie zum Bei- spiel Versicherungsrechner oder Navigationsoberflächen darstellen. Beispielsweise er- möglichten Java- Applets das Einbetten von Programmen, die lokal auf dem Computer des WWW-Benutzers ablaufen und Flash wurde für interaktive Inhalte oder Animatio- nen verwendet.

Mit der Einführung von HTML5 und weiteren standardisierten Webtechnologien wur- den Plug-ins schnell vom Markt verdrängt, da die Funktionen für Animationen und Multimediainhalte o. ä. jetzt direkt in die Browser eingebaut waren und somit ohne ex- terne Abhängigkeiten umgesetzt werden konnten. Aus Sicherheits- und Stabilitätsgrün- den deaktivieren die meisten größeren Browser meist große Teile bzw. die gesamte NPAPI-Schnittstelle, die für diese Plug-ins genutzt wurde. Weiterhin beliebt sind aller- dings beispielsweise Formate wie PDF zum Anzeigen von Dokumenten, die meist mitt- lerweile auch durch in den Browser eingebaute PDF- Reader angezeigt werden können. Dynamische Webseiten und Webanwendungen

Mit Hilfe der dynamischen WWW-Seiten kann das WWW als Oberfläche für verteilte Programme dienen: Ein Programm wird nicht mehr konventionell lokal auf dem Rech- ner gestartet, sondern ist eine Menge von dynamischen WWW -Seiten, die durch einen Webbrowser betrachtet und bedient werden können. Vorteilhaft ist hier

dass die Programme nicht mehr auf den einzelnen Rechnern verteilt sind und dort (de- zentral) administriert werden müssen.

Dynamische Webanwendungen werden entweder am Webserver oder direkt im Brow- ser ausgeführt.

-Ausfuhren von Webanwendungen am Webserver: Der Inhalt wird durch in Skriptspra- chen (wie PHP oder Perl) oder kompilierte Anwendungen (wie JSP, Servlets oder ASP.NET) geschriebene Webanwendungen erzeugt und an den Browser geliefert.

-Dynamische Websites am Client: Der Browser erzeugt oder ändert Inhalt mit- tels Ja- vaScript.

-Gemischte Ausführung: Eine gemischte Ausführung stellt AJAX dar - hier sen- det der Browser mittels JavaScript einen Request, der vom Webserver bear- beitet wird und so dynamisch Teile der HTML-Struktur erneuert. Nachteilig sind die begrenzten Ausdrucksmöglichkeiten von WWW-Seiten, so dass Programme in Form von Intemetseiten im Allgemeinen nicht so einfach bedient werden können wie konventionelle Programme. Ein Trend, der versucht, beides in Einklang zu bekommen, sind Rieh Internet Applications.

Zurzeit ist zu beobachten, dass immer mehr Dienste, die ursprünglich vom WWW ge- trennt waren und als eigenes Programm liefen, über das WWW angeboten werden und mittels eines Browsers genutzt werden können:

So wird Webmail oft als E-Mail-Client oder WebFTP als FTP-Client genutzt; Webfo- ren ersetzen das Usenet und Webchats den IRC.

Kompatibilität und Zugänglichkeit

Oft führten Browser-Hersteller neue Möglichkeiten ein, ohne auf eine Standardisierung zu warten. Umgekehrt werden jedoch immer noch nicht alle Teile von Standards wie HTML oder CSS korrekt implementiert. Das führt zu Inkompatibilitäten zwischen be- stimmten Webseiten und manchen Browsern. Besonders„hervorgetan“ durch solche Inkompatibilitäten hatte sich zu Beginn des Internet-Booms die Firma Netscape, heute vor allem das Unternehmen Microsoft mit seinem Internet Explorer.

Außerdem ging durch die Vielzahl der Ad -hoc -Erweiterungen von HTML ein wesentli- cher Vorteil dieser Sprache verloren - die Trennung von Inhalt und Darstellung. Durch diese Trennung können die in HTML ausgezeichneten Inhalte optimal für das jeweilige Ausgabegerät - ob Bildschirm, Display des Mobiltelefons oder Sprachausgabe (für Be- nutzer mit Sehschwierigkeiten) - aufbereitet werden.

Das W3C und andere Initiativen treiben daher die Entwicklung in die Richtung einer Standardisierung und browserübergreifenden Vereinheitlichung von HTML/XHTML und CSS voran, um diese Vorteile von HTML wiederzuerlangen. Auch der zunehmen- de Verzicht auf Plug-ins, wie Flash, unterstützen diesen Trend und führten zu einer bes- seren Barrierefreiheit. XHTML wurde später zugunsten von HTML5 aufgegeben, wel- ches auch explizite Features zur Verbesserung der Barrierefreiheit und Maschinenles- barkeit einbaute, die visuell nicht sichtbar sind.

12. Cloud Computing

(deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstellung von IT- Infra- struktur wie beispielsweise Speicherplatz, Rechenleistung oder Anwendungssoftware als Dienstleistung über das Internet.

Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT- Infrastruktu- ren über ein Rechnemetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.

Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spann- weite der im Rahmen des Cloud Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Plattformen und Software.

Begriffsbestimmung

2011 veröffentlichte das National Institute of Standards and Technology (NIST) eine Definition, die auf weitgehende Akzeptanz stieß und unterschiedliche Defmitionsansät- ze bündelt:

Servicemodelle

Cloud Computing enthält drei verschiedene Servicemodelle:

Software as a Service (SaaS)

Clouds bieten Nutzungszugang von Software-Sammlungen und Anwendungsprogram- men. SaaS-Diensteanbieter offerieren spezielle Auswahlen von Software, die auf ihrer Infrastruktur läuft. SaaS wird auch als Software on demand (Software bei Bedarf) be- zeichnet. Platform as a Service (PaaS)

Clouds bieten Nutzungszugang von Programmierungs- oder Laufzeitumgebungen mit flexiblen, dynamisch anpassbaren Rechen- und Datenkapazitäten. Mit PaaS entwickeln Nutzer ihre eigenen Software- Anwendungen oder lassen diese hier ausführen, inner- halb einer Softwareumgebung, die vom Dienstanbieter (Service Provider) bereitgestellt und unterhalten wird.

Inffastructure as a Service (IaaS)

Clouds bieten Nutzungszugang von virtualisierten Computerhardware- Ressourcen wie Rechnern, Netzen und Speicher. Mit IaaS gestalten sich Nutzer frei ihre eigenen virtuel- len Computer-Cluster und sind daher für die Auswahl, die Installation, den Betrieb und das Funktionieren ihrer Software selbst verantwortlich.

Liefermodelle

Darstellung von Cloud-Liefermodellen

Zudem enthält die Definition des National Institute for Standards and Technology (NIST) vier Liefermodelle:

Public Cloud - die öffentliche Rechnerwolke

Bietet Zugang zu abstrahierten IT -Infrastrukturen für die breite Öffentlichkeit über das Internet. Public-Cloud-Diensteanbieter erlauben ihren Kunden, IT- Infrastruktur zu mie- ten auf einer flexiblen Basis des Bezahlens für den tatsächlichen Nutzungsgrad bzw. Verbrauch (pay-as-you-go), ohne Kapital in Rechner- und Datenzentrumsinfrastruktur investieren zu müssen.

Private Cloud - die private Rechnerwolke

Eine Private Cloud ist eine Cloud-Umgebung, die ausschließlich für eine Organisation betrieben wird. Das Hosten und Verwalten der Cloud-Plattform kann intern (beispiels- weise durch firmeneigene Rechenzentren), aber auch durch Dritte erfolgen.

Hybrid Cloud - die hybride Rechnerwolke Bietet kombinierten Zugang zu abstrahierten IT-Infrastrukturen aus den Bereichen von Public Clouds und Private Clouds, nach den Bedürfnissen ihrer Nutzer.

Community Cloud - die gemeinschaftliche Rechnerwolke

Bietet Zugang zu abstrahierten IT-Infrastrukturen wie bei der Public Cloud - jedoch für einen kleineren Nutzerkreis, der sich, meist örtlich verteilt, die Kosten teilt (z. B. meh- rere städtische Behörden, Universitäten, Betriebe oder Firmen mit ähnlichen Interessen, Forschungsgemeinschaften, Genossenschaften).

Weiterhin gibt es Mischformen der oben genannten Cloud-Typen:

Virtual Private Cloud - eine private Rechnerwolke auf prinzipiell öffentlich- zugängli- chen IT-Infrastrukturen

Die Abschottung der„virtuell privaten“ Bereiche auf der öffentlichen Infrastruktur wird durch geeignete Sicherheitsmaßnahmen (z. B. VPN) gewährleistet.

Multi Cloud - Bündelung verschiedener Cloud-Computing-Dienste

Weiterentwicklung der Hybrid Cloud, bei der mehrere Cloud-Computing- Dienste in einer heterogenen Systemarchitektur gleichzeitig genutzt werden können.

Essenzielle Charakteristika

Das NIST listet fünf essenzielle Charakteristika für Cloud Computing:

On-demand self-service

Selbstzuweisung von Leistungen aus der Cloud durch den oder die Nutzer, die bei Be- darfbereitstehen soll.

Broad network access

Leistungen aus der Cloud sind über Standardmechanismen über das Netzwerk erreich- bar.

Resource pooling Ressourcen wie Rechenleistung, Netzwerk oder Storage werden zwischen unterschied- lichen Projekten und Kunden geteilt.

Rapid elasticity

Virtuelle Ressourcen skalieren schnell und aus Nutzersicht nahezu unbegrenzt und kön- nen auch automatisiert auf Laständerungen angepasst werden.

Measured Service

Ressourcennutzung kann gemessen und überwacht werden. Zum Beispiel für Abrech- nung oder auch automatische Skalierung.

Demzufolge geht Cloud Computing über andere gegenwärtig diskutierte Ansätze (z. B. Virtualisierung) hinaus. Unter der Bedingung einer öffentlichen Verfügbarkeit, ähnlich beispielsweise dem öffentlichen Telefonnetz, kann man Cloud Computing je nach Ar- chitektur auch als Summe von SaaS und Utility Computing ansehen.

Abgrenzung von anderen Techniken

Bei„Grid-Computing“ geht es um die gemeinschaftliche Nutzung der gemeinsamen Ressourcen und es gibt keine zentrale Steuerung. Im Fall von Cloud Computing hat man einen Anbieter der Ressourcen und einen Nutzer. Die Steuerung der Ressourcen ist zentralisiert.

Fog Computing stellt die dezentralisierte Erweiterung des Cloud Computings dar. Res- sourcen wie Speicher, Rechenleistung und Software -Anwendungen werden näher an den Endgeräten platziert, um durch eine optimiert Aufteilung eine bessere Effizienz und geringere Latenzzeiten zu erreichen. An die zentralen Systeme werden dann nur noch relevante und gegebenenfalls komprimierte Daten geleitet. Fog Computing steht in en- gem Zusammenhang mit Edge Computing, wo beispielsweise Sensordaten direkt im Sensorsystem aufbereitet werden, um sie dann an Fog und Cloud weiterzuleiten. Zwi- schen Fog und Edge Computing gibt es große Überschneidungen, weshalb sie teilweise synonym benutzt werden. Architektur

Da Clouds primär durch den Skalierungsgedanken entstanden sind, finden sich dort auch die stärksten Unterscheidungsmerkmale. Um sich der Architektur zu nähern, kann man sich einen einfachen Rechner vorstellen. Er hat Prozessorkerne, Arbeitsspeicher, eine Festplatte und Programme. Diese Kompo- nenten finden sich auch in einer Cloud, nur in einer Form, die massive Skalierung er- möglicht. Demzufolge lesen sich die Kenndaten einer„Cloud-Festplatte“ dann auch anders als die einer klassischen Festplatte im Computer. Amazon sagt über seine Persistenzschicht : „Die Anzahl der speicherbaren Objekte ist unbegrenzt.“ Google hat seine Persistenz- schicht Google File System auf etwa 15.000 einzelne Rechner verteilt (Stand 2009). Für die anderen Komponenten wie Programme oder Prozessorkeme gelten ähnliche große Maße. Warum dies so ist, erklärt sich allein durch die Zahlen. Im Jahr 2008 gibt Google bekannt, 10 Milliarden Datensätze, die über 1000 physische Computer verteilt sind, innerhalb von 68 Sekunden sortieren zu können. “We are excited to announce we were able to sort 1 TB (stored on the Google File Sy- stem as 10 billion 100-byte records in uncompressed text flies) on 1,000 Computers in 68 seconds.”

„Wir freuen uns, bekanntzugeben, dass wir in der Lage waren, 1 TB (gespeichert im Google File System in 10 Milliarden Dokumenten mit je 100 Bytes Datensatzgröße in unkomprimierten Textdateien), verteilt auf 1000 Computer, innerhalb von

68 Sekunden zu sortieren.“

Technische Realisierungen von Cloud Computing Es gibt unterschiedliche Arten von Cloud Computing. Eine mögliche Gliederung ist der sogenannte technische Cloud-Stack mit drei Schichten, in der obere Schichten auf den unteren Schichten aufbauen können, es aber nicht müssen:

Cloud-Computing-Architektur

-Anwendung

-Plattform

-Infrastruktur

Jede Schicht stellt hier einen Grad an Abstraktion dar. Auf diese Art können auch die unterschiedlichen Typen von„Clouds“ klassifiziert werden.

Anwendung (SaaS) Software as a Service

Die Anwendungsschicht stellt die abstrakteste Schicht auf Cloud-Dienste dar. Hierbei bringt der Benutzer seine Applikation weder in eine Cloud -Plattform ein, noch muss er sich um Skalierbarkeit oder Datenhaltung kümmern. Er nutzt eine bestehende Applika- tion, die ihm die Cloud nach außen hin anbietet. Dieser Anwendungsfall inkludiert die beiden darunterliegenden Ebenen, da die Cloud-Funktionalitäten wie hochskalierender, verteilter Speicher, ausfallsichere Infrastruktur und üblicherweise ein hochskalierendes Queuingsystem zwar die Grundlage der benutzten Anwendung sind, der Nutzer des SaaS-Dienstes damit allerdings nicht in Kontakt kommt.

Eine„Cloud-Anwendung“ im SaaS-Modell berücksichtigt typischerweise die folgenden Aspekte:

-Das Design soll modular und serviceorientiert sein (Aufsetzbarkeit auf dem PaaS- Szenario).

-Die Last ist nicht vorhersehbar, denn über Nutzungsintensität und Nutzerzahl einer Anwendung kann oft keine zuverlässige Aussage gemacht werden.

-Die Anwendung soll dynamisch, verteilt und mandantenfahig sein.

Bekannte Beispiele für Cloud-Anwendungen sind Apple iCloud, Google Drive, Microsoft OneDrive, ownCloud, Nextcloud oder Salesforce.com. Plattform (PaaS)

Ein Entwickler erstellt eine Anwendung und lädt diese in eine Cloud -Plattform. Diese kümmert sich dann selbst um die Aufteilung auf die eigentlichen Verarbeitungseinhei- ten. Im Unterschied zu IaaS hat der Benutzer hier keinen direkten Zugriff auf die Re- cheninstanzen. Er betreibt auch keine virtuellen Server. Im PaaS-Szenario bringt er aus- schließlich seine Programmlogik in die Cloud -Plattform ein, die ihm gegenüber als Programmierschnittstelle auftrit.

Die Infrastruktur der Cloud selbst kümmert sich hierbei um die erforderliche Instanziie- rung der Verarbeitungseinheiten und das Verteilen der zu verarbeitenden Daten.

Als Beispiel können hier die Produkte Windows Azure von Microsoft,„App Engine“ von Google oder„force.com“ von Salesforce.com der Plattform-Schicht zugeordnet werden.

Dadurch, dass der Benutzer hier nur seine Applikationslogik liefert, kann die Cloud- Plattform die Anzahl der tatsächlich arbeitenden Instanzen nach Belieben erhöhen oder reduzieren. Die Abstraktion von jeglicher technischen Komponente ist hierbei explizit gewünscht, da der Benutzer der Cloud in erster Linie Daten verarbeiten, nicht aber das System administrieren möchte.

Infrastruktur (IaaS) Infrastructure as a Service

Die Infrastruktur oder„Cloud Foundation“ stellt die unterste Schicht im Cloud Compu- ting dar. Der Benutzer greift hier auf bestehende Dienste innerhalb des Systems zu, verwaltet seine Recheninstanzen (siehevirtueller Server) allerdings weitestgehend selbst. Dienste innerhalb des IaaS -Konzeptes sind typischerweise verteilte Persistenz (siehe Amazons Simple Storage Service) und ein Nachrichtendienst (siehe Message Oriented Middleware). Sind die Cloud-Dienste selbst noch hochskalierend ausgelegt, trifft dies nicht zwingend auf die Programme zu, die auf den vom Benutzer eingebrach- ten Recheninstanzen laufen. Der Vorteil gegenüber traditionellen Datencentem ist die Skalierbarkeit: Die Rechenin- stanzen können je nach Anforderungen beliebig um weitere Instanzen erweitert oder verkleinert werden. Der Benutzer hat dabei vollen Zugriff auf die Instanzen mit der Ei- genschaft, dass er für die Instanzen ab der Betriebssystemebene selbst verantwortlich ist.

Die größten Beispiele hierfür sind Amazon Web Services und die Open Telekom Cloud.

Organisatorische Arten von Clouds

Man kann neben dem technischen Cloudstack auch zwischen verschiedenen Organisa- tionsformen von„Clouds“ unterscheiden, die je nach Anwendungsfall ihre Berechti- gung haben. Die Definitionen für die Begriffe„private“,„public“ usw. wurden vom NIST geprägt, werden in gleicher Art von den Wirtschaftsprüfern verwendet (führend hierzu sei für die Definition der Standards die ISACA angeführt) und sind seit 2014 auch in ISO/IEC 17788 verfügbar. Die Definitionen durch diese Gremien sind von ho- hem Erkenntniswert, da hier die korrekten Definitionen der Deployment Models inter- national gültig festgelegt sind.

Zusammenfassend lässt sich sagen, dass die Definitionen sich auf den möglichen Nut- zerkreis beziehen und nichts damit zu tun haben, wo„die Cloud“ betrieben wird oder wie Eigentumsverhältnisse aussehen. Unter„Private Cloud“ ist demnach eine Cloud zu verstehen, bei der die Ressourcen durch einen vordefinierten Benutzerkreis angespro- chen wird und wo die Verwaltung durch ausgezeichnete User erfolgt. Am anderen Ende der Skala ist dann die„Public Cloud“ zu finden, bei der a priori keinerlei Information über die möglichen Nutzer vorhanden ist. Mischformen dazwischen sind möglich (z. B. „Hybrid Cloud“), beziehen sich aber ebenfalls auf den Nutzerkreis und nicht auf die technische Ausgestaltung.

Die Begrifflichkeiten, wie sie teilweise gemeinhin anzutreffen sind, und im Rahmen de- ren Verwendung„Public Cloud“ mit„off premise“ und„Private Cloud“ mit„on premi- se“ gleichgesetzt werden, sind irreführend und entsprechen in dieser Verwendung we- der der Grundidee der ISO/IEC Normen noch der anderer Gremien.

Cloud Computing in der Wirtschaft

Cloud Computing verlagert die Investition für Anwendungsprogramme auf den Anbie- ter der Dienste und eine der tatsächlichen Leistung entsprechende Gebühr. Das erlaubt es, schwerfällige Entscheidungsprozesse in dem Unternehmen des Bestellers der Dien- ste abzulösen.

Vorteile und Probleme

Ebenso wie die Virtualisierung ermöglicht Cloud Computing Kostenvorteile gegenüber konventionellen Systemen. Dies ist der Fall, wenn sich beispielsweise die Bezahlung nach der Dauer der Nutzung des Dienstes richtet und der Dienst nur gelegentlich ge- nutzt wird. Lokale Ressourcen (Software und Hardware) lassen sich einsparen.

Zunehmend wird diese Ressourceneffizienz auch in Verbindung mit der nachhaltigen Nutzung von IKT-Systemen gebracht, wobei entsprechende Überlegungen keineswegs neu sind. Ein häufig zitiertes Beispiel ist die Realisierung von E-Mail-Systemen auf Ba- sis von Cloud Computing, denn hier nimmt die Komplexität der Anwendung durch Maßnahmen zur Unterbindung von Kompromittierungsversuchen kontinuierlich zu, so dass kleinere Unternehmen von einer Auslagerung profitieren können. Vorteile ergeben sich auch im Fall von stark schwankender Nachfrage: Normalerweise müsste man ge- nug Kapazität Vorhalten, um Lastspitzen bedienen zu können. Bei Nutzung von Cloud Computing lässt sich die genutzte Kapazität variabel an den tatsächlichen Bedarf kurz- fristig anpassen.

Das gilt besonders für volatile Geschäftsfelder, die externen Anforderungen umgehend entsprechen müssen, wie beispielsweise die Logistik. Ständig schwankende und vom Markt abhängige Warenvolumina erfordern zeitnahes Reagieren und die durchgehende Verfügbarkeit der zur Ausführung benötigten Kapazitäten. Dank der Flexibilität und der Skalierbarkeit der Cloud wäre die Bereitstellung benötigter Ressourcen für logistische Software (wie zum Beispiel WMS, TMS, ERP usw.) wesentlich günstiger und einfa- cher zu bewerkstelligen, als es momentan mit statischen Systemen der Fall ist. Laut ei- ner aktuellen Studie des Fraunhofer-Instituts für Materialfluss und Logistik IML ist eine Kostenreduktion im Bereich Warehouse Management um bis zu 56 Prozent im ersten Jahr und 48 Prozent in den Folgejahren machbar.

Konzepte zur praktischen Umsetzung existieren und befinden sich bereits in der An- wendung. Weitere Kostenvorteile ergeben sich für den Servicenutzer bei Public Cloud Angeboten beispielsweise bei der IT-Govemance (etwa durch (Teil-)Auslagerung bei der IT -Prüfung an den Dienstleister), durch den geringeren Investitionsbedarf und dem (steuerlichen und handelsrechtlichen) Ansatz der monatlichen Gebühren in voller Höhe.

Problematisch stellt sich Datensicherheit beim Cloud Computing dar: Eines der Grund- probleme, nämlich die Absicherung des Zugriffs auf die Anwendungsdaten beim Trans- fer zwischen lokalem Client und entferntem Server, kann heute befriedigend gelöst werden. Es existieren zahlreiche Entwicklungen im Bereich der sicheren Übertragung, wie beispielsweise SSL/TLS-Verschlüsselung. Ein weiteres Grundproblem ist die Ver- schlüsselung der Daten, die in Datenbanken und Datei -Systemen der Cloud gespeichert werden. Auch dieses Problem ist grundsätzlich technisch gelöst und wird von State-of- the-Art-Cloud-Anbietem angewandt (Kryptographie). Jedoch findet man (Stand 2012) hierauf noch keine Hinweise in den Datenschutzerklärungen der großen Cloud- Anbieter.

Das dritte Grundproblem, nämlich dass Administratoren des Cloud-Anbieters und der Dienste Zugriff auf die Nutzerdaten während der Verarbeitung haben, ist hingegen grundsätzlich ohne ein komplexes Management des verteilten Authentisierens und des dynamischen Autorisierens sowie der Kryptografie nicht zu lösen.

Kritiker behaupten, dass die Kontrolle der privaten Daten von Benutzern durch die marktdominanten Anbieter, wie etwa Google, hierdurch überhandnähme. Allerdings gibt es mittlerweile Algorithmen, die Berechnungen so auf einzelne Instanzen aufteilen können, dass es selbst allen Instanzen gemeinsam nicht möglich ist, Rückschlüsse auf die verarbeiteten Daten zu ziehen.

Dies ist lediglich der ausführenden Instanz möglich, da nur sie den genauen Algorith- mus kennt, mit dem die Teilergebnisse wieder zusammengeführt werden. Ein weiterer Ansatz, der sich zur Behebung dieses Problems eignet, ist die Anwendung einer voll homomorphen Verschlüsselung. Dabei wird innerhalb der Cloud ausschließlich auf ver- schlüsselten Daten gerechnet, die im privaten Bereich dann wieder entschlüsselt werden können. Die Herausforderung liegt hier jedoch darin, Verschlüsselungsalgorithmen zu finden, die für einen massiven, großflächigen Einsatz beim Cloud Computing effizient genug arbeiten.

Ein alternativer Ansatz, der ebenfalls die Daten in der Cloud unzugänglich macht, ist das Konzept der Sealed Cloud. Dabei kommt eine Schlüsselverteilung zum Einsatz, die zwar eine Verschlüsselung der Daten, jedoch nicht deren Entschlüsselung durch die Schlüssel zulässt, die den Administratoren zugänglich sind, und es erfolgt eine geordne- te Sicherung und anschließende Löschung von unverschlüsselten Daten, bevor ein Ad- ministrator, beispielsweise zu Wartungszwecken, Zugriff zur Computing- Infrastruktur erhält.

Eine weitere Herausforderung in der Cloud ist die Abhängigkeit (Lock-in-Effekt) vom jeweiligen Cloud- Anbieter, da die angebotenen Schnittstellen meist sehr herstellerspezi- fisch sind. Privatanwender stehen zudem vor der hypothetischen Frage, was mit ihren Daten in der Cloud passiert, wenn der Anbieter eines Cloud- Dienstes Insolvenz anmel- det. Daher bieten neue Anbieter die Rücksicherung der Daten auf dem eigenen Compu- ter an.

Kosten Es gibt verschiedene Untersuchungen über die Kosten von Cloud Computing. Nach ei- ner Untersuchung von Dachyuk (2018) ist Colocationing ab etwa 150 großen AWS- In- stanzen (m4.2xlarge) günstiger als Cloud Computing.

Ersatzlösungen

Da viele Privatanwender zunehmend Bedenken haben, ihre Daten bei großen Unter- nehmen zu speichern, wenn diese beispielsweise ihre Geschäftsbedingungen jederzeit ändern könnten, stellen viele NAS-Systeme für zu Hause Funktionen bereit, wie man sie von Cloud-Speicher-Betreibern kennt. In diesem Fall spricht man von einer Personal Cloud, da die Infrastruktur der Datenspeicherung vollständig vom Anwender selbst be- trieben wird. NAS-Lösungen übernehmen jedoch kein Verarbeiten von Daten.

Abgrenzung von anderen Dienstleistungsformen

Cloud Computing ist in einigen Elementen mit dem klassischen Online Outsourcing verwandt. Es grenzt sich jedoch in wesentlichen Punkten von diesem ab. In der Regel wird im Bereich der Infrastructure as a Service -Anbieter die IT-Infrastruktur von meh- reren Kunden genutzt, so dass Kapazitätsspitzen leichter verteilt werden können und Reserven gemeinsam genutzt werden. So können Cloud-Dienstleistungen kurzfristig angepasst werden und unterscheiden sich dadurch vom klassischen Modell, in dem Kunden Rechnerinfrastruktur„exklusiv“ nutzen. Weiterhin erfolgt die Steuerung und Administration der Dienste durch den Nutzer via Webinterface selbst.

Rechtliche Fragen

Rechtlich müssen sowohl die Beziehungen zwischen Cloud-Anbietem und ihren Kun- den als auch die Rechte betroffener Dritter betrachtet werden.

Datensicherheit

Es ist zu berücksichtigen, dass der gesetzlich geforderte Datenschutz grundsätzlich oh- ne technische Datensicherheit nicht erreicht werden kann. Die Datensicherheit wird durch die verwendete Technik des Anbieters und durch die verwendeten Anwendungen des Anbieters bestimmt. Datenschutz

Nach Urteil des Europäischen Gerichtshofs dürfen nur eingeschränkt Daten in die USA gelangen, wo sich über 90 % der Cloud-Computing-Infrastruktur befinden. [26] Natio- nale Datenschutzagenturen stützen sich auf Arbeiten der ENISA, wenn sie darlegen, warum Cloud Computing trotz Safe Harbor beispielsweise für Schulen unzulässig ist. Auch die Datenschutzbeauftragten der Schweiz warnen insbesondere vor Verletzung des Datenschutzrechts bei Verwendung von Rechenzentren im Ausland.

Wenn personenbezogene Daten Dritter online gespeichert werden, müssen sich bei- spielsweise deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar vor Ort davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehal- ten werden. Weil namhafte Cloud-Anbieter Datenbestände ihrer Kunden weitergeben, drohen den Kunden Bußgelder. Cloud- Betreiber mit Sitz in den USA unterliegen dem US-Recht und demnach dem Patriot Act. Unternehmen mit Sitz in den USA sind deshalb gezwungen, auch Daten an amerikanische Behörden auszuliefem, die sich auf Servern in fremdem Hoheitsbereich befinden. Dies ist beispielsweise von Amazon, Microsoft und Google bestätigt worden.

Nicht zuletzt wegen dieser Problemlagen im Datenschutz sowie in der Frage, inwieweit der Einzelne die Verfügungsgewalt über seine Daten tatsächlich behält, erhielt die Cloud bzw. Cloud Computing als Technik 2012 den Negativpreis Big Brother Award in der Kategorie„Kommunikation“, die Laudatio hielt Rena Tangens vom FoeBuD

Leistungsschuld

Bei den Cloud-spezifischen Leistungen werden in der Regel Web- oder Filespace, Da- tenbanken, Applikationen und Hostingservices zur Verfügung gestellt. Beim Webhosting (ggf. auch für das Storage-Management), bei dem Daten auf den Host des Hosting-Providers gespeichert werden, wird vertreten, dass es sich hierbei nicht um ei- nen Mietvertrag nach §§ 535 ff. BGB handelt, sondern um einen Werkvertrag nach §§ 631 ff. BGB. Der Hosting-Provider schuldet als Leistung lediglich, dass die Website des Kunden bei ihm irgendwo gespeichert wird und dass sie im Internet aufgerufen werden kann. Eigentliche Leistung ist daher die Aufbewahrung der Information und ihr Zurverfügunghalten für den Abruf im Internet. Für den Kunden ist vor allem wichtig, dass die Inhalte dauernd abrufbar sind. Wie der Hosting-Provider oder Cloudanbieter diese Leistung erbringt, ist dem Kunden gleichgültig. Damit wird nicht primär Spei- cherplatz überlassen, sondern primär ein Erfolg, nämlich die Abrufbarkeit im Internet geschuldet. Das Einspeichern der Website ist nur technische Voraussetzung des ge- schuldeten Erfolgs.

Bei der Zurverfügungstellung von Applikationen wird in der Regel ein Software -as-a- Service- (SaaS) oder„Application-Service-Providing“ -Modell (ASP) gewählt. Hierbei wird vom ASP-Anbieter einem Kunden die temporäre Nutzung von Applikationen zur Verfügung gestellt. Der Bundesgerichtshof hat entschieden, dass auf Application- Ser- vice-Pro viding-Verträge grundsätzlich die mietrechtlichen Vorschriften Anwendung finden. Auch wenn diese Entscheidung sicherlich bedeutsam gewesen ist, bedarf es doch einer erheblichen vertraglichen Gestaltung, insbesondere bei der Gestaltung der Service-Levels, da hier die mietrechtlichen Regelungen des §§ 535 ff. BGB allein nicht ausreichend sein dürften.

Die Einordnung von Hosting- Verträgen für Datenbanken in die vertragstypologische Einordnung des BGB richtet sich nach der vertraglich geschuldeten Leistung. Hierbei ist grundsätzlich zu unterscheiden, ob wie weiter oben beschrieben Filespace zur Spei- cherung der Datenbank vom Provider zur Verfügung gestellt wird (sogenanntes Daten- bank-Hosting) oder eine Applikation wie eine Oracle -Datenbank (zur zeitweiligen Nut- zung) zur Verfügung gestellt wird. Schuldet der Cloud -IT- Anbieter über die Hosting- Leistung hinaus Leistungen, wie z. B. bei der Gestaltung der Datenbanken, sind ggf. die Regelungen von §§ 87a bis 87e UrhG zu berücksichtigen.

Urheberrecht Zu beachten sind auch urheberrechtliche Fragestellungen, wenn urheberrechtlich ge- schützte Daten online gespeichert werden. Der Upload von Daten stellt rechtlich gese- hen nichts anderes als eine Vervielfältigung gern. § 16 UrhG dar, die der Zustimmung des Urhebers bedarf. Nur wenn der Upload zu rein privaten Zwecken geschieht und die Datei nicht öffentlich zugänglich gemacht wird, kann der Upload als Privatkopie gern. § 53 UrhG zulässig sein. Die öffentliche Zugänglichmachung von Dateien der Cloud (§ 19a UrhG) ist jedoch ohne Zustimmung des Urhebers immer rechtswidrig.

Hinzu kommt, dass nach Marcel Bisges durch Cloud Computing das derzeitige System der Urhebervergütung ausgehebelt werden kann, indem dem Urheber der Anspruch auf angemessene Vergütung (für Privatkopien) vermindert wird. Aus urheberrechtlicher Sicht ist Cloudcomputing andererseits, so Bisges, für die Hersteller von Software von Vorteil, da im Gegensatz zu herkömmlicher Softwareüberlassung die Schäden durch il- legale Kopien vermieden werden.

Cloud Services Made in Germany

In Deutschland wurde 2010 die Initiative Cloud Services Made in Germany ins Leben gerufen. Dabei geht es um die Rechtssicherheit beim Einsatz von Cloud -Computing- Lösungen. Denn bei den Unternehmen, die daran beteiligt sind, liegen die Kundendaten ausschließlich in Deutschland und unterliegen damit dem deutschen Recht und Daten- schutz. Folgende Aspekte sind bei der Initiative wichtig:

-Das Unternehmen des Cloud-Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.

-Das Unternehmen schließt mit seinen Cloud-Service-Kunden Verträge mit Service- Level-Agreement (SLA) nach deutschem Recht.

-Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.

-Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutsch- sprachi- gen Service und Support zur Verfügung. 13. Cloud Commerce

Cloud Commerce ist eine Verbindung der Bereiche E-Commerce und Cloud Compu- ting. Konkret befasst sich das Thema Cloud -Commerce nur mit dem Teilbereich Soft- ware as a Service des Cloud-Computing, kurz SaaS. Die im SaaS- Model angebotene Software ist in diesem Fall ein eCommerce-System (primär ein Shop-System).

Analog dem SaaS-Modell, basiert Cloud-Commerce auf dem Grundsatz, dass das eCommerce-System und die IT-Infrastruktur bei einem externen IT -Dienstleister, dem Hersteller der Software, betrieben und vom Kunden als Service genutzt werden. Der Servicegeber übernimmt die komplette IT- Administration und weitere Dienstleistungen wie Wartungsarbeiten und Updates. Zu diesem Zweck wird die gesamte IT- Infrastruktur, einschließlich aller administrativen Aufgaben, ausgelagert, und der Ser- vicenehmer kann sich auf sein Kerngeschäft konzentrieren.

SaaS-Modellen, wie dem Cloud-Commerce, werden eine immer größere Bedeutung eingeräumt. Das Marktforschungsunternehmen Gärtner prognostizierte für 2011 einen Umsatz von 12,1 Milliarden US-Dollar. Dies bedeutet einen Anstieg um 20,7 Prozent im Vergleich zum Vorjahr (2010: 10 Mrd. Dollar). Der nordamerikanische Markt stellt dabei die größte Nachfrageballung dar (2011 : 7,7 Mrd. Dollar).

Cloud-Commerce bietet klein- und mittelständischen Unternehmen eine Vielzahl von Vorteilen gegenüber dem traditionellen Lizenzkauf und dem eigenen Betrieb einer IT- Infrastruktur.

Vorteile

-Geringes Investitionsrisiko

-Transparente IT-Kosten

-Beschleunigte Implementierung

-Verringerung der IT-Prozesskomplexität

-Mobilität

-Konzentration auf das Kerngeschäft Der Servicenehmer hat ein geringeres Investitionsrisiko, da er für die Softwareeinfüh- rung keinerlei IT -Hardware benötigt. Zwei Studien der McKinsey Consulting und Yan- kee Group besagen, dass die Investitionskosten einer SaaS- Lösung, wie dem Cloud- Commerce, im Vergleich zu einer On-Premise-Lösung um 30 Prozent gesenkt werden können, unabhängig von der Benutzeranzahl. Ein weiterer Vorteil ist die Auslagerung der Prozesskomplexität, indem Wartungsarbeiten, Updates und weitere IT-Aufgaben durch den Servicegeber übernommen werden. Der Softwarezugriff über das Internet sorgt für eine hohe Mobilität, da der Servicenehmer zeit- und ortsunabhängig auf das System zugreifen kann. Mit einer ausgelagerten IT-Infrastruktur können sich Unter- nehmen auf ihr Kemgeschäft bzw. die Wertschöpfung konzentrieren und somit die lä- stigen IT- Aufgaben umgehen. Damit ist die IT ein leicht zu handhabendes Gebrauchs- gut, um Wachstum, Flexibilität, Wettbewerbsfähigkeit und somit auch die Existenz des Unternehmens zu sichern.

Nachteile

-Abhängigkeit vom Servicegeber

-Geringere Anpassungsmöglichkeiten

-Daten- und Transaktionssicherheit

Als Nachteil von Cloud-Commerce-Software ist zu werten, dass sich die Servicenehmer in einem Abhängigkeitsverhältnis befinden, da der Kunde nicht Eigentümer der Soft- ware ist. Es besteht die Gefahr, dass der Servicegeber das System aus einem bestimm- ten Grund (z. B. bei Insolvenz) abschaltet. Die SaaS- Lösungen sind meist standardi- siert, sodass es wenige Anpassungsmöglichkeiten des Funktionsumfangs gibt.

Aus Sicht des Servicegebers

Auch für den Servicegeber ergeben sich durch Cloud-Commerce Vor- und Nachteile, die nachfolgend beschrieben werden:

Vorteile

-Erweiterung des IT -Leistungsangebots und Erzielung zusätzlicher Umsatzer- löse -Längerfristig gesicherte Einnahmen und bessere Liquiditätsplanungsoption

-Geringere Wahrscheinlichkeit des Auftretens von Softwarepiraterie Der Servicegeber hat die Möglichkeit, sein IT-Leistungsangebot zu erweitern und somit weitere Erlöse zu generieren. Da der Servicenehmer meist monatliche Gebühren für die Nutzung der Software zahlt, können längerfristiger Einnahmen gesichert und somit auch die Liquidität besser geplant werden. Außerdem werden weniger Verluste durch die Software-Piraterie erzielt, da die Software zentral beim Servicegeber verwaltet wird. Nachteile

-Investitionsrisiko

-Akzeptanzprobleme auf dem IT-Markt

-Möglicher Imageschaden und Umsatzverluste

Der Cloud-Commerce-Anbieter hat das Problem des hohen Investitionsrisikos, sollte die Software vom Kunden nicht wie erwartet angenommen werden. Zudem muss er beim Kunden Überzeugungsarbeit leisten, da derzeitige Akzeptanzprobleme oft mit den Nachteilen begründet werden.

Datenschutz

Bei Cloud-Commerce liegen die Kunden- oder Umsatzdaten des Kunden nicht mehr auf eigenen Rechnern, sondern beim jeweiligen Systemanbieter. Zwischen dem Anbieter und seinem Kunden liegt regelmäßig ein Fall der Auftragsdatenverarbeitung nach § 11 Bundesdatenschutzgesetz (BDSG) vor. Der Kunde ist verpflichtet, den Anbieter sorg- fältig auszuwählen, regelmäßig zu kontrollieren und das Ergebnis der Kontrollen zu do- kumentieren. Der Kunde bleibt für die Rechtmäßigkeit der Datenverarbeitung verant- wortlich.

Cloud-Commerce-Untemehmen

Beispiele für Cloud-Commerce-Angebote sind z. B. Magento Go, Amazon Webstore und Shopify in den USA; Big Cartel in Großbritannien; Big Commerce in Australien; Supr.com sowie XSITE, Jimdo und Onshop.de in Deutschland. 14. Online-Datensicherung

Als Online-Datensicherung, Online-Backup oder Web-Backup bezeichnet man eine Da- tensicherung über das Internet. Diese erfolgt auf Datenspeichern eines Intemetdienstan- bieters in einem Rechenzentrum.

Das Verfahren entlastet den Anwender, selbst zuverlässige Datenspeicher zu beschaf- fen, regelmäßig zu prüfen, zu verwalten und vor Verlust zu sichern.

Vorgehensweise

Der Kunde erhält nach Anmeldung einen Benutzemamen und ein Kennwort für den Zugang zur Datensicherung. Technische Voraussetzung ist ein Intemetzugang. Die Software für eine Datensicherung oder auch der Upload über eine Webseite sollten eine sichere Verschlüsselung gewährleisten, um die übertragenen Daten vor fremdem Zu- griff zu schützen.

Weil die Datenübertragungsrate von Intemetzugängen meist nur einen Bruchteil derer von Laufwerken und Local Area Networks beträgt, kann die Software eine Datenkom- pression durchführen, soweit das möglich ist. Schon komprimiert gespeicherte Daten - zum Beispiel in den Dateiformaten ZIP, JPEG, MPEG oder MP3 - kann sie kaum wei- ter komprimieren.

Über einen Intemetzugang mit einer Datenübertragungsrate von 1 Mbit/s können theo- retisch 450 MB pro Stunde beziehungsweise 10,5 GB pro Tag übertragen werden. Dies ist beispielsweise eine mögliche Datenübertragungsrate beim Hochladen über ADSL 6000 in Deutschland. Mit schnelleren Internet-Zugängen wiez. B. per VDSL sind noch höhere Datenübertragungsgeschwindigkeiten möglich. Einige Dienstleister bieten an, größere Datenmengen mittels Festplatte oder DVDs auf dem Postweg auszutauschen, was sich insbesondere für eine größere Erst- Sicherung anbietet.

Wegen der relativ niedrigen Datenübertragungsrate kommt dem Verfahren der inkre- mentellen Datensicherung, bei dem nur neue und geänderte Daten kopiert werden, be- sondere Bedeutung zu. Einige Anbieter durchsuchen mit ihrer Software Dateien nach geänderten Teilen und übertragen nur die veränderten Datenblöcke an den Datenspei- cher (Block-Level). Einige erkennen, wenn Dateien nur umbenannt wurden und über- tragen sie nicht erneut. Umbenannte Dateiordner und verschobene Dateien können nicht immer wiedererkannt werden, was zu erneuten Dateiübertragungen führen kann.

Manche Lösungen wie z. B. Netzdrive, Novell iFolder, Dropbox, Fabasoft Folio Cloud oder Recovery Guard bieten Merkmale wie eine Verschlüsselung von Daten auf dem Server, die Vergabe von Datei -Zugriffsrechten an bestimmte andere Nutzer oder Nut- zergruppen, die Replikation von Daten auf mehrere Server und eine Versionskontrolle von Änderungen an, wodurch ähnliche Eigenschaften wie von sogenannten verteilten Dateisystemen erreicht werden. Sofern eine Einschränkbarkeit des Zugriffs besteht, überschneidet sich die Funktionalität dieser Software teilweise mit solcher zum Filesha- ring.

Einige Lösungen unterhalten Ihre Serverstruktur ausschließlich in Deutschland, weshalb der gesamte Datenverkehr den strengen deutschen Datenschutzgesetzen unter- steht, mit der Folge zusätzlicher Sicherung gegen nicht autorisierten Zugriff.

Wenige Lösungen bieten darüber hinaus noch eine Ende-zu-Ende-Verschlüsselung, durch welche die Daten bereits lokal auf dem eigenen Rechner verschlüsselt werden und somit bereits auf dem Weg zum Server hin sicher verschlüsselt sind.

Moderne Anbieter bieten in ihrer Software nicht nur Online Backup an, sondern auch die parallele Sicherung auf lokale Medien, wie ein Bandlaufwerk oder USB Peripherie. Firmen sollten darauf achten, dass SQL-Datenbanken wie z. B. Microsoft SQL Server unterstützt werden und eine komplette Systemwiederherstellung Disaster Recovery im Fall eines Serverausfalls enthalten ist. Nützlich ist auch ein direkter, in der Online Backup Software integrierter Virenscanner, welcher die zu sichernden oder wiederher- zustellenden Daten überprüft und somit die Sicherheit des Backups erhöht. 15. Blockchain

Eine Blockchain ist eine dezentrale Datenbank, die eine stetig wachsende Liste von Transaktionsdatensätzen vorhält. Die Datenbank wird chronologisch linear erweitert, vergleichbar einer Kette, der am unteren Ende ständig neue Elemente hinufügt werden (daher auch der Begriff "Blockchain" = "Blockkette"). Ist ein Block vollständig, wird der nächste erzeugt. Jeder Block enthält eine Prüfsumme des vorhergehenden Blocks. Entwickelt wurde das technische Modell der Blockchain im Rahmen der Kryptowäh- rung Bitcoin - als webbasiertes, dezentralisiertes, öffentliches Buchhaltungssystem aller Bitcoin-Transaktionen, die jemals getätigt wurden. Die Bitcoin-Blockchain wächst ste- tig, da ständig neue Blöcke mit neu abgeschlossenen Bitcoin-Transaktionen hinzu- kommen. Jeder Computer, der an das Bitcoin-Netz angeschlossen ist, neue Bitcoins er- zeugt und/oder die bisher erzeugten verwaltet, verwaltet eine 1 :1 -Kopie der vollständi- gen Blockchain, die Ende 2015 bereits rund 50 Gigabyte groß war.

Was ist was bei Blockchain, Bitcoin und Co.?

Ethereum

Eine weitere Kryptowährung, die auf dem Blockchain-Prinzip basiert. Bietet eine Platt- form für programmierbare Smart Contracts. Die "Ether" werden von Fans als legitime Nachfolger der Bitcoins angesehen. Ethereum.org

Was ist überhaupt Bitcoin?

Bitcoin ist eine rein digitale Währung - begründet 2009 -, die auf einem dezentralen Bezahl-Netzwerk basiert und die eine Blockchain als Rückgrat benötigt. Wer im Web mit Bitcoins bezahlt, zahlt geringere Transaktionsgebühren als bei traditionellen On- line-Payment-Anbietem. Ein weiterer möglicher Vorteil von Bitcoin ist, dass die Wäh- rung nicht durch eine zentrale Staatsbank oder ähnliche Einrichtung gesteuert wird. Nachteile sind die überschaubare Zahl von Akzeptanzstellen und der mittlerweile sehr hohe Aufwand, neue Bitcoins zu berechnen - entsprechend stark steigt ihr Wert.

Es existieren keine physikalischen Bitcoins, sondern nur Kontostände, die mit öffentli- chen und privaten Schlüsseln verbunden sind. Diese Kontostände werden in einem öf- fentlichen Buchhaltungssystem abgelegt - der Blockchain -, zusammen mit allen jemals getätigten Bitcoin-Transaktionen. Die für die Verwaltung dieser massiven Datenmenge notwendige Rechenpower wird durch ein großes Netz von Computern bereitgestellt.

Was macht die Blockchain so besonders?

Die Blockchain ist die wohl größte technologische Erfindung des Bitcoin-Universums. Ohne Blockchain würde das Bitcoin-System nicht funktionieren, weil neue Bitcoins nur auf Grundlage der bisher erzeugten Bitcoins errechnet werden können und deshalb nachgehalten werden muss, was in der Vergangenheit schon passiert ist.

Dennoch muss das Blockchain-Prinzip losgelöst von Bitcoin betrachtet werden. Stellen Sie sich die Blockchain als Rohrleitung vor und Bitcoin als das Wasser, das dort durch- fließt. Oder Blockchain als Straße und Bitcoin als Auto. Der daraus folgende Clou: Auf der Grundlage der Blockchain-Technologie lassen sich neue Applikationen entwickeln und komplett neue Ökosysteme begründen.

Welche Vor- und Nachteile hat eine dezentrale Technologie wie Blockchain?

Die Dezentralisierung der IT im Allgemeinen und Blockchain im Speziellen bringt ei- nige Vor- und Nachteile mit. Als Vorteile lassen sich anführen:

-Schutz großer Datenmengen mittels Verschlüsselung und Zugriffsverwaltung;

-Möglichkeit, große Datenmengen untemehmensübergreifend zu sammeln und analy- sieren;

-einfachere Verifzierung von Datenbezugspunkten;

-automatische Aufspüren von Schwachstellen in der Lieferkette, im Zahlungsverkehr und anderen Geschäftsprozessen;

-Reduktion oder Vermeidung von unnötigen Kosten für die IT-Inffastrukur;

-Reduktion der Kosten für interne und externe Finanztransaktionen, Finanzreporting und Verwaltung;

-Schaffung eines Mechanismus zur Verbesserung des Vorstandsreportings und des re- gulatorischen Reportings;

-Beschleunigung des Jahresabschlusses.

Als Nachteile sind zu nennen: -noch wenig individuelle Skalierbarkeit;

-geringer Datendurchsatz;

-Einschränkungen beim Speicherplatz;

-schwer zu verwaltende Berechtigungen;

-schwierige Integration mit bestehender Legacy im Unternehmen.

Wie kommt die Blockchain in der Finanzbranche schon zum Einsatz?

Schon heute ist vieles in der IT dezentralisiert - dem Internet und der Cloud sei Dank. Mit Anwendungen, die auf dem Blockchain-Prinzip basieren, kommen weiter neue Entwicklungen dazu, die dafür sorgen werden, die aufgeführten Nachteile nach und nach abzubauen. So basiert auch die Kryptowährung Ethereum auf dem Blockchain- Prinzip der dezentralen Rechenleistung und kann als eine Art Brücke zwischen Block- chain und Unternehmens-Systemen gesehen werden.

Die "skalierbare Blockchain-Datenbank" BigchainDB kann bis zu einer Millionen Schreibvorgänge pro Sekunde verwalten, Petabytes an Daten speichern und wartet trotzdem mit einer Latenzzeit von unter einer Sekunde auf - das alles dezentralisiert verwaltet und bei höchster Datenintegrität.

Blockchain-Anwendungsplattformen für die Finanzindustrie, die sich noch in der Ent- wicklung befinden - wie ERIS oder R3CEV - sollen die "Business-Regeln" der Block- chain-Technologie aufstellen und neue transparente, sichere und nachprüfbare Ge- schäftsmodelle in die IT, insbesondere der Finanzbranche, bringen. Für den CIO heißt ein solcher neuer dezentralisierter Technologiestack samt wachsendem Ökosystem, dass er seinen Aufgaben besser nachkommen kann: schnellere Fertigstellung für den Geschäftsbetrieb, eine sicherere Transaktionsabwicklung, Kostenreduzierung und enge- re Orientierung an regulatorischen Vorschriften.

Die Integration mit bereits bestehenden Systemen stellt noch eine Herausforderung dar, ist aber nicht unüberwindbar und lässt sich mit den durch Blockchain zu erwartenden Vorteilen sowohl für die IT als auch fürs Business sehr gut rechtfertigen. Warum können auch andere Industrien von der Blockchain profitieren?

Die IT entwickelt zunehmend dezentrale Strukturen, weil die Anwender ihre digitalen Daten selbst im Auge behalten möchten. Durch dezentrale Systeme können Informatio- nen in einem Netz von mehreren Rechnern gespeichert werden, die über das Internet zugänglich sind. Mit dem Internet begann die Dezentralisierung der Kommunikation und jeder Mensch erhielt mehr Verfügungsgewalt über die Informationen, die er kon- sumiert. Im nächsten Schritt werden neben der Kommunikation auch Rechenleistung und Speicher dezentralisiert (Cloud Computing), und mit der Blockchain kommt nun ein weiteres Element hinzu. Die Blockchain befeuert Ideen, nicht nur Kryptowährungen wie Bitcoin über dezentrale Netze zu steuern, sondern auch andere digitale Inhalte wie Kunst, Musik, Texte oder Fotos.

Erste konkrete Praxisbeispiele für den Einsatz von Blockchains in verschiedenen Indu- strien sin im im Artikel "Blockchain im Einsatz" zusammengestellt.

Wie sehen die Blockchain-Angebote der großen IT-Konzeme aus?

Große IT-Konzeme springen auf den Blockchain-Zug auf und basteln derzeit an Soft- ware- und Service-Ökosystemen rund um die Technologie. So bietet IBM- sowieso schon länger in der Bitcoin-Initiative der Linux Foundation aktiv - innerhalb seiner Cloud Entwicklern die Möglichkeit, eigene Blockchains aufzusetzen. Dazu hat Big Blue auf seiner Entwicklerplattform Bluemix den der Bitcoin -Blockchain zugrundelie- genden Hyperledger-Code zur Verfügung gestellt.

Durch die gleichzeitige Integration des Container-Dienstes Docker sei es "für Entwick- ler nun in zwölf Sekunden möglich, eine eigene Mini -Blockchain innerhalb einer Sand- box zum Laufen zu bekommen", wie Jerry Cuomo, bei IBM für die Blockchain- Angebote zuständig, im Rahmen der Vorstellung der Services im Februar 2016 unter- strich. "Und nur eine Minute später ist dann die erste vollständige Blockchain- Applikation live." Auch Microsoft hat den Nutzen von Blockchain erkannt und unter dem Dach von "Ethereum Blockchain as a Service" in der Azure Cloud das "Project Bletchley" gestar- tet. In nächster Zeit sollen verschiedene Middleware-Tools gelauncht werden, die den Business-Nutzen von Blockchain erweitern. So spricht man beispielsweise mit "Block- chain as a Service"in erster Linie Entwickler an. Als technisches Werkzeug der Lösun- gen dienen sogenannte "Cryptlets", mit deren Hilfe Anwender externe Daten in eine Blockchain einpflegen können, ohne ihre Sicherheit und Integrität zu zerstören.

Diese Cryptlets lassen sich in jeder beliebigen Prorammiersprache entwickeln und lau- fen analog zum IBM-Angebot innerhalb eines sicheren Containers. Microsoft sieht den Nutzen der Blockchain-Technologie vor allem in Security -relevanten Themen wie Iden- titäts-Management und Verschlüsselung und hat entsprechende Services bereits in Pro- ject Bletchley integriert.

Weitere große IT-Player wie SAP oder HPE haben die Technologie ebenfalls schon länger unter Beobachtung und evaluieren eigenen Aussagen zufolge noch die Möglich- keiten, Angebote rund um Blockchain zu entwickeln.

Eine Blockchain (auch Block Chain, englisch für Blockkette) ist eine kontinuierlich er- weiterbare Liste von Datensätzen, genannt„Blöcke“, welche mittels kryptographischer Verfahren miteinander verkettet sind. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, [6] einen Zeit- stempel und Transaktionsdaten.

Der Begriff Blockchain wird auch genutzt, wenn ein Buchfuhrungssystem dezentral ge- führt wird und der jeweils richtige Zustand dokumentiert werden muss, weil viele Teil- nehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed- Led- ger-Technologie (dezentral geführte Kontobuchtechnologie) oder DLT. bezeichnet.

Was dokumentiert werden soll, ist für den Begriff der Blockchain unerheblich. Ent- scheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und die- se als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der spä- teren Transaktionen haben, würden eine manipulierte Kopie der Blockchain daran er- kennen, dass sie Inkonsistenzen in den Berechnungen aufweist.

Das Verfahren der kryptografischen Verkettung in einem dezentral geführten Buchfüh- rungssystem ist die technische Basis für Kryptowährungen, kann aber darüber hinaus in verteilten Systemen zur Verbesserung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Systemen beitragen. Eine der ersten Anwendungen von Blockchain ist die Kryptowährung Bitcoin.

Die Funktionsweise ähnelt dem Journal der Buchführung. Es wird daher auch als „Internet der Werte“ (Internet of value) bezeichnet. Eine Blockchain ermöglicht es, dass in einem dezentralen Netzwerk eine Einigkeit zwischen den Knoten erzielt werden kann. (Siehe auch: Byzantinischer Fehler.)

Geschichte

Erste Grundlagen zur kryptografisch abgesicherten Verkettung einzelner Blöcke wur- den 1991 von Stuart Haber und W. Scott Stometta, 1996 von Ross J. Anderson und 1998 von Bruce Schneier & John Kelsey beschrieben. 1998 arbeitete auch Nick Szabo an einem Mechanismus für eine dezentralisierte digitale Währung, die er„Bit Gold“ nannte Im Jahr 2000 entwickelte Stefan Konst eine allgemeine Theorie zu kryptogra- fisch abgesicherten Verkettungen und leitete daraus verschiedene Lösungen zur Umset- zung ab.

Das Konzept der Blockchain als verteiltes Datenbankmanagementsystem wurde erst- mals 2008 von Satoshi Nakamoto im White Paper zu Bitcoin beschrieben. Im Jahr dar- auf veröffentlichte er die erste Implementierung der Bitcoin-Software und startete da- durch die erste öffentlich verteilte Blockchain. Eigenschaften

Neue Blöcke werden über ein Konsensverfahren geschaffen und anschließend an die Blockchain angehängt. Das populärste Konsensverfahren ist hierbei die Proof- of- Work-Methode; es bestehen jedoch zahlreiche andere Formen, Konsens herzustellen (Proof of Stake, Proof of Capacity, Proof of Bum, Proof of Activity).

Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu be- schädigen. Hierdurch wird die Manipulation von Daten erheblich erschwert. Der dezen- trale Konsensmechanismus ersetzt die Notwendigkeit einer vertrauenswürdigen dritten Instanz zur Integritätsbestätigung von Transaktionen.

-Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.

-Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.

-Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin„Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsensprotokoll, ein al- gorithmisches Verfahren zur Abstimmung.

-Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fälschungs- und manipulationssicher.

-Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von al- len Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.

-Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmende unab- streitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.

Bei Bitcoin besteht eine Blockchain aus einer Reihe von Datenblöcken, in denen je- weils eine oder mehrere Transaktionen zusammengefasst und mit einer Prüfsumme ver- sehen sind, d. h., sie werden jeweils paarweise zu einem Hash-Baum zusammengefasst. Die Wurzel des Baumes (auch Merkle-Root, bzw. Top-Hash genannt) wird dann im zu- gehörigen Header gespeichert. Der gesamte Header wird dann ebenfalls gehasht; dieser Wert wird im nachfolgenden Header abgespeichert.

So wird sichergestellt, dass keine Transaktion verändert werden kann, ohne den zuge- hörigen Header und alle nachfolgenden Blöcke ebenfalls zu ändern.

Die Blockchain von Bitcoin ist die älteste Blockchain. Sie startete im Januar 2009, hatte

Anfang Dezember 2017 eine Größe von ca. 144,5 GB und lag am

9. Dezember 2017 auf ca. 1 1.900 Knoten redundant und öffentlich zugriffsbereit vor.

Anwendungsbeispiel Auditing

Beim Auditing in der Informationstechnik geht es darum, sicherheitskritische Operatio- nen von Softwareprozessen aufzuzeichnen. Dies betrifft insbesondere den Zugriff auf und die Veränderung von vertraulichen oder kritischen Informationen. Das Auditing eignet sich hierbei deshalb für eine Blockchain, weil es relativ geringe Datenmengen produziert und gleichzeitig hohe Sicherheitsanforderungen aufweist.

Eine Blockchain kann hierbei das Audit-Log (auch als Audit-Trail bezeichnet) vor Ver- änderung schützen. Zudem sollten die einzelnen Einträge mit einer digitalen Signatur versehen werden, um die Echtheit zu gewährleisten. Ein dezentraler Konsensmecha- nismus, wie bei Bitcoin, wird nicht zwingend benötigt. Da einerseits vertrauliche Informationen gespeichert werden und andererseits kein Ele- ment der Blockchain gelöscht werden kann, ohne diese ungültig zu machen, kann zu- dem eine Verschlüsselung der einzelnen Einträge erfolgen. Da die Implementierung von Blockchains derzeit (Stand Mai 2017) mangels einfach zu verwendender Imple- mentierungen sehr aufwändig ist, empfiehlt sich der Einsatz nur für besonders schüt- zenswerte Informationen.

Einsatzbeispiele sind das Auditing bei Systemen für medizinische Informationen (z. B. Elektronische Gesundheitsakte), Verträgen und Geldtransaktionen mit hohem fi- nanziellen Wert, militärischen Geheimnissen, der Gesetzgebung und der elektronischen Stimmabgabe, dem Sicherheitsmanagement kritischer Anlagen oder Daten von Großun- ternehmen, welche unter den Sarbanes-Oxley Act oder ähnlichen Richtlinien fallen.

Wie im Juli 2018 bekannt wurde, testen die vier Wirtschaftsprüfungsgesellschaften Deloitte, KPMG, PricewaterhouseCoopers International und Emst & Young einen Blockchain-Dienst zur Prüfung der Zwischenberichte von Aktiengesellschaften. Ziel ist es, den Wirtschaftsprüfungsunternehmen die Möglichkeit zu geben, die Geschäftsvor- gänge durch eine nachvollziehbare und manipulationssichere Datenkette auf dezentrale Weise zu verfolgen, wodurch der Bestätigungsprozess optimiert und automatisiert wird.

Anwendungsbeispiel Kapitalmärkte

Die Blockchain wird auch als Anwendung in den Kapitalmärkten in Betracht gezogen. Das R3 Konsortium hat mit mehreren Finanzinstitutionen die Plattform Corda veröf- fentlicht, welche einen Unterbau für Blockchain-Anwendungen für Kapitalmärkte dar- stellen soll.

Die größten Anwendungsgebiete für Kapitalmärkte bestehen im Bereich des Settlement von Aktien und anderen Finanzinstrumenten, der Ausgabe von Konsortialkrediten und der Finanzierung von Unternehmen mit Eigenkapital.

Anwendungsbeispiel Lieferketten für Lebensmittel Der Einsatz einer Blockchain, in der die Beteiligten die Transaktionen der Lieferkette gemeinsam dokumentieren, kann hier deutliche Kosten- und Zeiteinsparungen ermögli- chen. Eine Blockchain könnte das Misstrauen gegenüber einem zentralen registerfüh- renden Akteur aufheben, da ein Blockchain -Register für alle Teilnehmenden zugänglich ist. Die Buchführungs- und Leserechte können dabei gestuft verteilt werden, angepasst an die unterschiedlichen Nutzergruppen und deren Bedürfnisse, wie zum Beispiel Her- steller, Spediteure, Zoll und verschiedene Verbraucherinnen und Verbraucher. Somit herrscht keine vollständige Transparenz, die Wettbewerber ausnutzen könnten. Für Endverbraucherinnen und -Verbraucher können zum Beispiel lediglich Leserechte ein- geräumt werden, anhand derer die Herkunft und die gesamte Lieferkette von der Ernte über Verarbeitung, Logistik, Verzollung, Zertifizierung, Lebensmittelüberwachung, den Großhändler bis zum Einzelhandel transparent und überprüfbar nachvollzogen werden können.

Zudem gibt es Automatisierungspotenziale für die einzuhaltenden Dokumentations- pflichten: So könnte beispielsweise ein im Container angebrachter Sensor die Tempera- tur von Lebensmitteln messen, die Messdaten in die Blockchain schreiben und so eine lückenlose Einhaltung der Kühlkette dokumentieren. Würde sie nicht eingehalten, könnte ein entsprechend aufgesetzter Smart Contract automatisch Alarm schlagen.

16. Informationeile Selbstbestimmung

Das Recht auf informationelle Selbstbestimmung ist im Recht Deutschlands das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner perso- nenbezogenen Daten zu bestimmen. Es ist nach der Rechtsprechung des Bundesverfas- sungsgerichts ein Datenschutz-Grundrecht, das im Grundgesetz für die Bundesrepublik Deutschland nicht ausdrücklich erwähnt wird. Der Vorschlag, ein Datenschutz- Grundrecht in das Grundgesetz einzufügen, fand bisher nicht dieerforderliche Mehrheit. Personenbezogene Daten sind jedoch nach Datenschutz- Grund Verordnung und nach Art. 8 der EU-Grundrechtecharta geschützt. Allgemeines

Der Begriff des informationeilen Selbstbestimmungsrechts geht zurück auf ein Gutach- ten von Wilhelm Steinmüller und Bernd Lutterbeck aus dem Jahr 1971. Das informa- tioneile Selbstbestimmungsrecht ist eine Ausprägung des allgemeinen Persönlichkeits- rechts und wurde vom Bundesverfassungsgericht im sogenannten Volkszählungsurteil 1983 als Grundrecht anerkannt. Ausgangspunkt für das Bundesverfassungsgericht ist das sogenannte allgemeine Persönlichkeitsrecht (APR), also Art. 2 Abs. 1 GG in Ver- bindung mit Art. 1 Abs. 1 GG.

Die Selbstbestimmung bei der freien Entfaltung der Persönlichkeit werde gefährdet durch die Bedingungen der modernen Datenverarbeitung. Wer nicht wisse oder beein- flussen könne, welche Informationen bezüglich seines Verhaltens gespeichert und vor- rätig gehalten werden, werde aus Vorsicht sein Verhalten anpassen (siehe auch: Panop- tismus). Dies beeinträchtige nicht nur die individuelle Handlungsfreiheit, sondern auch das Gemeinwohl, da ein freiheitlich demokratisches Gemeinwesen der selbstbestimm- ten Mitwirkung seiner Bürger bedürfe.„Mit dem Recht auf informationeile Selbstbe- stimmung wären eine Gesellschaftsordnung und eine diese ermöglichende Rechtsord- nung nicht vereinbar, in der Bürger nicht mehr wissen können, wer was wann und bei welcher Gelegenheit über sie weiß.“ [Referenz benötigt]

Das Recht auf informationeile Selbstbestimmung leitet sich nach Ansicht des Europäi- schen Parlamentes auch aus Art. 8 Abs. 1 der Europäischen Menschenrechtskonvention ab:„Jede Person hat das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung und ihrer Korrespondenz.“- EMRK Art. 8 Abs. 1

Aufbauend auf dieser Begründung hatte das EU-Parlament gegen die EU- Kommission Klage erhoben, weil die verbindliche Speicherung der Verkehrsdaten der EU-Bürger gegen diese Regelung verstoße.

Schutzbereich

Das Recht auf informationeile Selbstbestimmung ist weit gefasst. Es wird nicht unter- schieden, ob mehr oder weniger sensible Daten des Einzelnen betroffen sind. Das Bun- desverfassungsgericht stellte fest, dass unter den Verarbeitungs- und Verknüpfungs- möglichkeiten der Informationstechnologie auch ein für sich gesehen belangloses Da- tum einen neuen Stellenwert bekommen könne und es insoweit keine belanglosen Da- ten gebe.

Eingriffe

Einschränkungen des Grundrechts seien zwar möglich, bedürften aber einer gesetzli- chen Grundlage. Dabei habe der Gesetzgeber abzuwägen zwischen dem Geheimhal- tungsinteresse des Betroffenen und dem öffentlichen Informationsinteresse der verar- beitenden Stelle.

Einschränkungen sind nur zulässig im überwiegenden Allgemeininteresse. Sie bedürfen einer gesetzlichen Grundlage, die dem Gebot der Normenklarheit entsprechen muss.

Es wird differenziert zwischen Maßnahmen, die ohne oder gegen den Willen des Be- troffenen vorgenommen werden, und solchen, die freiwillig erfolgen. Für erstere muss die gesetzliche Ermächtigung auch„bereichsspezifisch, präzise und amtshilfefest“ sein (Volkszählungsurteil, BVerfGE 65, 1 )

Zudem kann man unterscheiden zwischen anonymisierten Daten, die keinen Rück- schluss auf den Betroffenen zulassen (z. B. für statistische Erhebungen), und Daten, die personalisierbar sind. Bei anonymisierten Daten ist die Zweckbindung gelockert, für Daten, die personalisierbar sind, gilt eine strenge Zweckbindung. Der Gesetzgeber muss Vorkehrungen treffen, um Datenmissbrauch zu verhindern (Verfahrensvorschriften, Da- tenschutzbeauftragte, ...).

Auswirkungen

Das informationeile Selbstbestimmungsrecht wurde die Grundlage für die bestehenden Datenschutzgesetze wie das Bundesdatenschutzgesetz oder die Landesdatenschutzge- setze und beeinflusste auch die Entwicklung der Richtlinie 95/46/EG (Datenschutzricht- linie). Auch in jüngerer Zeit hat das Recht auf informationeile Selbstbestimmung in der ver- fassungsgerichtlichen Rechtsprechung eine große Rolle gespielt. So wurde die Raster- fahndung in Nordrhein-Westfalen für verfassungswidrig erklärt, sofern sie nur auf Grundlage einer„allgemeinen Bedrohungslage“ geschieht; die § 100c und

§ lOOd StPO (der sogenannte Große Lauschangriff) mussten um einen Straftatenkatalog und um explizite Löschungsvorschriften ergänzt werden (BVerfGE 109, 279).

Das Recht auf Nichtwissen gilt als„negative Variante des Rechts auf informationeile Selbstbestimmung“ .

Ausspähen

Das Ausspähen privater Daten aus einem staatlichen Interesse heraus ist strengen Be- schränkungen unterworfen. Es bedarf nach dem Legalitätsprinzip generell der gesetzli- chen Regelung und nach den Grundsätzen der Gewaltenteilung der richterlichen An- ordnung. Nach bestimmter Frist muss dem Ausgespähten zudem Kenntnis über den Vorgang gegeben werden. Eine beabsichtigte Ausspähung auf Vorrat wird damit kaum in Gesetzesrang kommen.

Zuletzt hat das Bundesverfassungsgericht die gesetzlichen Regelungen des Landes Nordrhein-Westfalen als verfassungswidrig gekippt. [5] Klarstellungen des Bundesmi- nisteriums des Innern werden für die entsprechenden bundesgesetzlichen Regelungen erwartet. Siehe auch: Ausspähen von Daten

Vereinbarungen

Unter der Maßgabe der aktuellen Rechtsprechung (s. o.) bedarf jede Verknüpfung per- sonenbezogener Daten für Zwecke Dritter der Zustimmung, wenn der Rechtsanspruch der Beteiligten nicht eingeschränkt sein soll. Dazu sind Vereinbarungen möglich, die zwischen den Beteiligten getroffen werden und damit die ausdrückliche Zustimmung der Beteiligten dokumentieren. Es kann nicht durch Vereinbarung zweier Parteien eine Gültigkeit für Dritte erreicht werden. Im Umkehrschluss kann ebenso eine Vereinba- rung zwischen zwei Parteien nicht durch eine Vereinbarung mit Dritten aufgehoben oder unwirksam werden. Insoweit ist im Zusammenhang mit neuen Techniken und Verfahrensweisen (Techno- logien) davon auszugehen, dass eine Verletzung der Rechte der informationeilen Selbstbestimmung beispielsweise durch Einrichtungen zur Ortsbestimmung technisch möglich ist. Diese technische Möglichkeit aber generellals gesetzeswidrig auszuschlie- ßen, ist keine haltbare Position. Dies wird allein durch die bekannten Einrichtungen der Mobilfunktechnik bestätigt.

Verstöße

Nutzt ein Unternehmen für den Betroffenen erkennbar persönliche Daten, hat der Be- troffene generell einen Rechtsanspruch auf Auskunft über die Speicherung dieser Daten und den Verwendungszweck dieser Daten. Geht die Speicherung über einfache Adress- daten hinaus, hat der Betroffene generell einen Rechtsanspruch auf Löschung der Spei- cherung dieser Daten, wenn er mit dem Unternehmen keine Vertragsbeziehungen hat (siehe auch: Bundesdatenschutzgesetz: Rechte der Betroffenen).

Wird ein Unternehmen beispielsweise durch Werbeaktionen lästig, kann der Betroffene in jedem Einzelfall durch Formschreiben unter Angabe der Adresse Auskunft einholen. Erfolgt keine Auskunft durch das Unternehmen, kann der Betroffene rechtliche Mittel nutzen, um per Abmahnung durch einen Rechtsanwalt oder per Klage bei Gericht Aus- kunft und Löschung durchzusetzen. Die Kosten trägt zunächst der Betroffene.

17.Informationssicherheit

Information (oder Daten) sind schützenswerte Güter. Der Zugriff auf diese sollte be- schränkt und kontrolliert sein. Nur autorisierte Benutzer oder Programme dürfen auf die Information zugreifen. Schutzziele werden zum Erreichen bzw. Einhalten der Informa- tionssicherheit und damit zum Schutz der Daten vor beabsichtigten Angriffen von IT- Systemen definiert. Allgemeine Schutzziele:

-Vertraulichkeit (englisch: confidentiality): Daten dürfen lediglich von au- torisierten Benutzern gelesen bzw. modifiziert werden, dies gilt sowohl beim Zugriff auf gespei- cherte Daten, wie auch während der Datenüber- tragung.

-Integrität (englisch: integrity): Daten dürfen nicht unbemerkt verändert werden. Alle Änderungen müssen nachvollziehbar sein.

-Verfügbarkeit (englisch: availability): Verhinderung von Systemausfal- len; der Zu- griff auf Daten muss innerhalb eines vereinbarten Zeitrah- mens gewährleistet sein.

Weitere Schutzziele der Informationssicherheit:

-Authentizität (englisch: authenticity) bezeichnet die Eigenschaften der Echtheit, Über- prüfbarkeit und Vertrauenswürdigkeit eines Objekts.

-Verbindlichkeit/Nichtabstreitbarkeit (englisch: non repudiation): Sie er- fordert, dass „kein unzulässiges Abstreiten durchgeführter Handlungen“ möglich ist. [4] Sie ist unter anderem wichtig beim elektronischen Ab- Schluss von Verträgen. Erreichbar ist sie bei- spielsweise durch elektronische Signaturen.

-Zurechenbarkeit (englisch: accountability):„Eine durchgeführte Hand- lung kann ei- nem Kommunikationspartner eindeutig zugeordnet werden.

-in bestimmtem Kontext (zum Beispiel im Internet) auch Anonymität

Jedes noch so gut geplante und umgesetzte IT-System kann Schwachstellen besitzen. Sind bestimmte Angriffe zum Umgehen der vorhandenen Sicherheitsvorkehrungen möglich, ist das System verwundbar. Nutzt ein Angreifer eine Schwachstelle oder eine Verwundbarkeit zum Eindringen in ein IT-System, sind die Vertraulichkeit, Dateninte- grität und Verfügbarkeit bedroht (englisch: threat). Angriffe auf die Schutzziele bedeuten für Unternehmen Angriffe auf reale Untemeh- menswerte, im Regelfall das Abgreifen oder Verändern von untemehmensinternen In- formationen. Jede mögliche Bedrohung ist ein Risiko (englisch: risk) für das Unter- nehmen. Unternehmungen versuchen durch die Verwendung eines Risikomanagements (englisch: risk management) die Wahrscheinlichkeit des Eintretens eines Schadens und die daraus resultierende Schadenshöhe zu bestimmen.

Nach einer Risikoanalyse und Bewertung der unternehmensspezifischen IT- Systeme, können entsprechende Schutzziele definiert werden. Anschließend folgt die Auswahl von IT-Sicherheitsmaß nahmen für die jeweiligen Geschäftsprozesse eines Unterneh- mens. Dieser Vorgang zählt zu den Tätigkeiten des IT- Sicherheitsmanagements. Eine genormte Vorgehensweise wird durch das Verwenden von IT-Standards ermöglicht.

Im Rahmen des IT-Sicherheitsmanagements findet die Auswahl und Umsetzung ent- sprechender IT-Sicherheitsstandards statt. Zu diesem Zweck existieren im Bereich TG- Sicherheitsmanagement verschiedene Standards. Mit Hilfe des ISO/IEC 27001- oder des IT-Grundschutz-Standards wird mit anerkannten Regeln versucht, die Komplexität soziotechnischer Systeme für den Bereich des IT- Sicherheitsmanagements zu reduzie- ren und ein geeignetes Maß an Informationssicherheit zu finden.

Bedeutung der Informationssicherheit

In den frühen Kindertagen des (Personal-)Computers verstand man unter Computersi- cherheit die Sicherstellung der korrekten Funktionalität von Hardware (Ausfall von zum Beispiel Bandlaufwerken oder anderen mechanischen Bauteilen) und Software (richtige Installation und Wartung von Programmen). Mit der Zeit änderten sich die Anforderun- gen an die Computer (Internet, Speichermedien); die Aufgaben zur Computersicherheit mussten anders gestaltet werden. Somit bleibt der Begriff der Computersicherheit wan- delbar. 18. Inter- und supranationales Datenschutzrecht

Vereinte Nationen

Bereits die Allgemeine Erklärung der Menschenrechte, verkündet am 10. Dezember 1948 von der Generalversammlung der Vereinten Nationen, maß der Privatsphäre der Menschen Bedeutung zu. In Art. 12 der Menschenrechtserklärung heißt es:

„Niemand darf willkürlichen Eingriffen in sein Privatleben, seine Familie, seine Woh- nung und seinen Schriftverkehr [...] ausgesetzt werden. Jeder hat Anspruch auf rechtli- chen Schutz gegen solche Eingriffe oder Beeinträchtigungen.“

Obgleich die Erklärung rechtlich nicht verbindlich war und ist und die in ihr statuierten Rechte ausschließlich deklaratorischer Art sind, kann sie doch zu den Vorläufern oder gar Grundpfeilern des supranationalen Datenschutzrechts gezählt werden.

Im September 2005 forderte die 27. Internationale Konferenz der Beauftragten für den Datenschutz und den Schutz der Privatsphäre die Vereinten Nationen auf, die Rechte auf Privatsphäre („privacy“) und auf Datenschutz als Menschenrechte inhaltlich weiter auszugestalten.

Europarat

Nicht zuletzt im Hinblick auf die kurz zuvor verkündete UN -Menschenrechtserklärung enthielt auch die 1950 Unterzeichnete und 1953 in Kraft getretene Europäische Men- schenrechtskonvention des Europarats eine Regelung zum Datenschutz - auch wenn der Begriff damals noch nicht gebräuchlich war. Gemäß Art. 8 Abs. 1 der Europäischen Menschenrechtskonvention hat jedermann [...] Anspruch auf Achtung seines Privat- und Familienlebens, seiner Wohnung und seines Briefverkehrs“.

Dieser - eher deklaratorisch und programmatisch zu verstehende - Satz ist noch heute gültig; in Deutschland steht er im Rang einem Bundesgesetz gleich.

Nachdem die elektronische Datenverarbeitung und damit der Datenschutz in den 1970er Jahren immer mehr an Bedeutung gewannen, bereitete der Europarat eine eigene Kon- vention zum Datenschutz vor, die 1981 als Übereinkommen zum Schutz des Menschen bei der automatischen Verarbeitung personenbezogener Daten vereinbart wurde. Die Europäische Datenschutzkonvention, wie das Übereinkommen umgangssprachlich ge- nannt wurde, trat 1985 in Kraft. Durch die Konvention verpflichten sich die ihr beige- tretenen Staaten, bei der automatisierten Datenverarbeitung bestimmte elementare Da- tenschutzprinzipien zu beachten und diese im eigenen Hoheitsgebiet auch gegenüber Dritten durchzusetzen.

OECD

Die Organisation fiir wirtschaftliche Zusammenarbeit und Entwicklung (OECD) formu- lierte 1980 Leitlinien für den Schutz des Persönlichkeitsbereichs und den grenzüber- schreitenden Verkehr personenbezogener Daten. Die Leitlinien sollen insbesondere den grenzüberschreitenden Datenaustausch erleichtern. Sie stellen jedoch nur unverbindli- che Empfehlungen dar und können mittlerweile als inhaltlich überholt gelten. Prakti- sche Bedeutung haben die OECD-Empfehlungen nicht.

Europäische Union

Das Datenschutzrecht der Europäischen Union stand bis zum Jahr 2000 vornehmlich unter dem Gedanken der Schaffung und Stärkung des gemeinsamen Europäischen Bin- nenmarktes. Unterschiedliche nationale Datenschutzgesetze werden dabei als mögliche Handelshemmnisse angesehen. Erst mit der Verabschiedung der Charta der Grundrech- te der Europäischen Union wurde der Datenschutz als Grundrecht anerkannt.

Grundrechtecharta

Im Jahr 2000 proklamierten die Staats- und Regierungschefs der EU-Mitgliedstaaten die Charta der Grundrechte der Europäischen Union. Art. 7 der Charta gewährleistet je- der Person„das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung sowie ihrer Kommunikation“. Art. 8 der Charta statuiert darüber hinaus ein Recht auf Schutz von personenbezogenen Daten. Der Datenschutz wurde damit auf Ebene der Eu- ropäischen Union ausdrücklich als Grundrecht anerkannt. Durch den Vertrag von Lis- sabon wurde die Grundrechtecharta für die EU und ihre Mitgliedstaaten verbindliches Recht. Art. 16 Abs. 1 des Vertrags über die Arbeitsweise der Europäischen Union legt fest, dass jede Person das Recht auf Schutz der sie betreffenden personenbezogenen Daten hat.

Private und öffentliche Unternehmen sind heute in allen Bereichen ihrer Geschäftstätig- keit, Privatpersonen in den meisten Belangen des täglichen Lebens auf IT-Systeme an- gewiesen. Da neben der Abhängigkeit auch die Risiken für IT- Systeme in Unterneh- mungen in der Regel größer sind als für Computer und Netzwerke in privaten Haushal- ten, ist Informationssicherheit überwiegend Aufgabe von Unternehmen.

Entsprechende Verpflichtungen lassen sich im gesamten deutschsprachigen Raum aus den verschiedenen Gesetzen zum Gesellschaftsrecht, Haftungsrecht, Datenschutz, Ban- kenrecht usw. herleiten. Dort stellt Informationssicherheit einen Baustein des Risiko- managements dar. International spielen Vorschriften wie Basel II und der Sarbanes- Oxley Act eine wichtige Rolle.

Kritik am Datenschutzrecht

Das geltende Datenschutzrecht kann seinen Zweck heute nur noch unvollkommen erfül- len. Es beruht in seinen grundsätzlichen Strukturen auf dem Datenschutzkonzept der 1970er Jahre, das sich wiederum an der elektronischen Datenverarbeitung der damali- gen Zeit orientiert. Diese war durch die zentrale Datenspeicherung auf Großrechnern, beschränkte Speicherkapazitäten und einen relativ kleinen Kreis von

- meist staatlichen - Datenverarbeitern gekennzeichnet.

Die technische Entwicklung der letzten 30 Jahre hat das staatliche Datenschutzrecht nur zum Teil und mit erheblicher Verzögerung berücksichtigt. Technische Neuerungen, die den Datenschutz beeinträchtigen können— beispielsweise Internet, Videoüberwachung, Biometrie, RFID - sind gesetzlich nicht oder nur unzureichend geregelt. Daran haben auch zahlreiche Gesetznovellierungen nichts ändern können. Zudem gilt insbesondere das deutsche Datenschutzrecht als„überreguliert, zersplittert, unübersichtlich und widersprüchlich“ (Alexander Roßnagel). Heute können selbst Fachleute das Datenschutzrecht nicht mehr in ihrer Gesamtheit überblicken. Hinzu kommt ein„massives Vollzugsdefizit im Datenschutz“ (Johann Bizer): Verstöße gegen Datenschutzregelungen haben meist keine Konsequenzen, weil die betroffenen Perso- nen von einer missbräuchlichen Datenverarbeitung in der Regel keine Kenntnis haben und die staatlichen Datenschutzbehörden nicht über die notwendigen personellen Res- sourcen verfügen, um die Datenverarbeiter effektiv zu kontrollieren.

19. Intemetkriminalität

Intemetkriminalität sind Straftaten, die auf dem Internet basieren oder mit den Techni- ken des Internets geschehen. Dies ist nicht zu verwechseln mit Computerkriminalität, bei der primär der Computer, auch ohne Intemetnutzung, als Tatwaffe eingesetzt wird. Den Schutz vor Internetkriminalität nennt man auch Onlinesicherheit. Dieser Begriff ist zu unterscheiden von Intemetsicherheit, zu dem auch der Schutz der Infrastruktur selber gehört, also auch der Schutz vor Straftaten gegen das Internet selbst, online oder mate- riell, aber auch vor sonstigen Gefahren, als Teil der IT-Sicherheit.

Erscheinungsformen

Die Erscheinungsformen sind sehr vielfältig; Beispiele sind Intemetbetrug, das Ausspä- hen von Daten, Verstöße gegen das Verbreitungsverbot oder den Jugendmedienschutz, Identitätsdiebstahl, Urheberrechtsverletzung, CyberTerrorismus, Cyber-Mobbing, Volksverhetzung sowie das Verbreiten von Kinderpornographie.

Der Übergang zu Methoden und Verfahren des Cyberwar („Netzkrieg“) ist mittlerweile fließend geworden; im Einzelfall ist durchaus nicht ohne weiteres auszumachen, ob ein Angriff im Netz einschlägig kriminellen Zielen dient oder militärisch bzw. politisch in- tendiert ist (etwa bei einer weitreichenden Sabotage des stark ITK-abhängigen Finanz- systems oder der Webpräsenzen öffentlicher Einrichtungen im weitesten Sinn). Den Beobachtungen zufolge professionalisiert sich die„Malware-Branche“ zunehmend, die Angriffe auf Rechner und Rechnemetze werden immer ausgefeilter.

Laut Antivirensoftware -Entwickler stieg z. B. die Infektion von Rechnern mit Schad- software, die zum Identitätsdiebstahl dient (etwa der Ausspähung von Bankkontenda- ten), vom ersten zum zweiten Halbjahr 2008 um 800 Prozent.

Im Bankenbereich nehmen neben Online-Attacken auf die Konten von Privatkunden vor allem die Angriffe direkt auf das Interbankengeschäft mit Hilfe gefälschter Versio- nen von Zahlungsaufträgen zu. Die dabei verwendete Schadsoftware dringt dabei in das Netz der angebundenen Institute ein und verursacht jährliche Schäden von zig Millio- nen Dollar.

Zielobjekt des CEO Fraud sind Firmen, die laut einer FBI-Verlautbarung von 2015 um über 740 Mio. Dollar geprellt wurden.

Technischer Fortschritt

Beinahe schon seit der allgemeinen Etablierung des Internets seit den 1990er Jahren und der zunehmenden Elektronisierung weiter Felder des öffentlichen Lebens, vor al- lem auch auf wirtschaftlichem Gebiet, liefern sich Kriminelle und Sicherheitsexperten einen Hase- und Igel-Wettlauf auf den unterschiedlichsten Feldern, das bislang meist mit einem„positiven Patt“ für die Sicherheit ausging. In jüngster Zeit (2010er Jahre) werden die Methoden der Cyberverbrecher zusehends raffinierter und elaborierter (was z. B. auch für viele Virenprogrammierer gilt, deren Produkte unterdessen ein erstaunli- ches, im Einzelfall beängstigendes technisches Niveau erreicht haben.

Nach Aussage des US-Telekommunikationsdienstleisters Verizon Business sei es Kri- minellen in den Vereinigten Staaten gelungen, die Verschlüsselung beim Übertragen von PIN-Codes zu knacken. Dabei konnten die Hacker sowohl an verschlüsselte als auch an unverschlüsselte PINs gelangen. Fachleute gehen Medienberichten zufolge da- von aus, dass das Problem nur gelöst werden kann, wenn die Finanzindustrie den elek- tronischen Zahlungsverkehr insgesamt überholt. Situation in Deutschland

Für seinen von HP Enterprise Security gesponserten Bericht 2014 zu den Kosten von Intemetkriminalität befragte das Ponemon Institute ein repräsentatives branchenüber- greifendes Sample von 46 Betrieben in Deutschland. Die Umfrage ergab eine durch- schnittliche Schadenhöhe von 6,1 Mio.€, mit einer Spannbreite von 425 Tsd.€ bis 20,2 Mio.€ pro Jahr. Phishing, Social Engineering und Web- Attacken machten mehr als 35 % der Kosten aus.

Das Bundeskriminalamt (BKA) hat im Jahr 2012 in Deutschland 229.408 Straftaten festgestellt, auf die das Merkmal„Tatmittel Internet“ zutraf.

„Phishing“ bildet laut BKA trotz eines Rückgangs der Fallzahlen um 46 % weiterhin „im Hinblick auf das vorhandene Schadenspotenzial und die Lukrativität für die Täter- seite weiterhin einen Schwerpunkt im Bereich Cybercrime.“ Knapp 3.500 Fälle will das BKA 2012 ermittelt haben, bei einer durchschnittlichen Schadenshöhe von ca. 4.000 Euro pro Fall. Für den Rückgang wird Sensibilisierung der Anwender, verstärkte Schutzmaßnahmen und effektives IT -Management verantwortlich gemacht.

Aktuell sind Smartphones weiterhin ein interessantes Ziel für Kriminelle. Nutzer setzen diese immer vielfältiger wie z. B. für Onlinebanking, zur Autorisierung von Transaktio- nen, zum unmittelbaren Zugriff auf E-Mail-Konten und Konten sozialer Netzwerke oder gar zur Nutzung geschäftliche Daten ein und seien sich der mobiler Betriebssyste- me unzureichend bewusst.

Die Zahl der Straftaten, die mit dem Tatmittel Internet begangen wurden, ist im Jahr 2016 leicht gestiegen. Im Vergleich zum Vorjahr (244.528 Fälle) wurden 2016 insge- samt 253.290 Fälle erfasst. Dazu gehören Delikte wie Waren- und Warenkreditbetrug, Computerbetrug, Leistungs- und Leistungskreditbetrug, die Verbreitung pornografi- scher Schriften und Straftaten gegen die Urheberrechtsbestimmungen. Wie die Infogra- fik der Polizei zeigt, entfielen allein 27,8 Prozent der Fälle auf den Warenbetrug; beach- tenswert ist auch der Anteil von 20,7 Prozent beim Warenkreditbetrug. Waren- und Wa- renkreditbetrug machen somit fast die Hälfte aller Fälle aus. Von den 101.654 Tatver- dächtigen waren 68,7 Prozent männlich und 31,4 Prozent weiblich. Die Aufklärungs- quote lag bei 65 Prozent. [13] Die Polizeiliche Kriminalstatistik wies 2007 allerdings auch einen erheblichen Anstieg bei Urheberrechtsverletzungen aus: um 54,6 Prozent auf 32.374 Fälle. Dafür wurde vor allem das verschärfte Vorgehen der Musikindustrie gegen illegales Herunterladen von urheberrechtlich geschützten Daten verantwortlich gemacht.

Es gibt auf Online-Plattformen eine Zunahme von betrügerischen Fakeshops, bei denen bezahlte Ware nicht oder nicht in der bestellten Qualität geliefert wird. Die Kriminalsta- tistik der Polizei für das Jahr 2015 weist für Deutschland fast 75.000 Fälle von Waren- betrug im Internet aus. Das deutsche Bundeskriminalamt nennt dies ein

„Massenphänomen, das die Strafverfolgungsbehörden vor große Herausforderungen stellt“.

Nach einer BITKOM-Studie sind bis Mitte 2008 fast vier Millionen Deutsche schon einmal Opfer von Computer- oder Intemetkriminalität geworden. Sieben Prozent aller Computemutzer ab 14 Jahren haben demnach bereits einen finanziellen Schaden etwa durch Viren, bei Online-Auktionen oder durch Datenmissbrauch beim Onlinebanking erlitten. Beklagt wurde gleichwohl das geringe Sicherheitsbewusstsein der Nutzer. [16] In seinem auf der CeBIT vor gestellten Bericht Die Lage der IT - Sicherheit in Deutsch- land 2009 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) seine Be- sorgnis über die wachsende Intemetkriminalität ausgedrückt; die Situation wurde als „überaus ernst“ und„schlimmer als befürchtet“ eingeschätzt.

Der unbesorgte Umgang mit Daten in den„Mitmach“ -Anwendungen des Webs, vor al- lem in den immer beliebter werdenden sozialen Netzwerken, schreckt Sicherheitsexper- ten demnach besonders auf.„Bedenkenlos geben Anwender in ihren Benutzerprofilen detailliert private Informationen preis. Dabei vergessen sie oft, dass Informationen im Netz praktisch jedermann zugänglich sind und es auch bleiben“, heißt es in der BSI- Studie. Botnets, mittels derer Cyber-Kriminelle oftmals hunderttausende gekaperter Privat- und Bürorechner ohne Wissen der Benutzer vernetzen und missbrauchen, laut BSI „Teil einer professionell und international aufgestellten Schatten Wirtschaft“, haben sich unterdessen zu einer herausragenden Bedrohung entwickelt. Seit 2007 kam es zu einer Reihe prominenter Aufdeckungen (vgl. GhostNet; Trojaner).

Bei einer jüngst veröffentlichten Forsa-Umfrage im Auftrag der Schufa aus dem Jahr 2018 gaben 39 Prozent der Befragten an, selbst schon einmal Opfer von Intemetkrimi- nalität geworden zu sein, 12 Prozent wurden dabei konkret Opfer von Identitätsmiss- brauch im Internet.

Bekämpfung der Internetkriminalität

Wegen der erheblich gestiegenen Gefahren hat die Europäische Kommission Ende März 2009 deshalb einen Fünf-Punkte-Plan zum Schutz kritischer Informationsinfra- strukturen in den Mitgliedsstaaten der Europäischen Union vorgestellt.

Neben einer forcierten Koordination zwischen den Mitgliedstaaten sieht er vor:

-Prävention und Abwehrbereitschaft

-Erkennung und Reaktion; Einrichtung eines Frühwam- und Informationsnetzes -Folgenminderung und Wiederherstellung

-Internationale Zusammenarbeit

-Aufstellung von einheitlichen Kriterien für europäische kritische IKT -Infrastrukturen

Die Europäische Agentur für Netz- und Informationssicherheit (ENISA) soll laut EU- Kommission die Initiative vorantreiben. Die Kommission werde zudem zusammen mit den Mitgliedstaaten„einen Fahrplan zur Förderung von Grundsätzen und Leitlinien auf globaler Ebene ausarbeiten. Als Mittel zur globalen Konsensbildung wird die strategi- sche Zusammenarbeit mit Drittstaaten gefördert, vor allem in den Dialogen zu Themen der Informationsgesellschaft.“

Übereinkommen über Computerkriminalität (Cybercrime -Konvention) Bereits am 23. November 2001 Unterzeichneten die 26 Länder des Europarats neben den USA, Kanada, Japan und Südafrika das„Übereinkommen über Computerkriminali- tät“, auch „Budapester Konvention gegen Datennetzkriminalität“ oder kurz Cy- bercrime-Konvention genannt, um die länderspezifischen Computerstrafrechtsregelun- gen anzugleichen. Unter anderem sollen Intemetanwender oder Domain-Besitzer grenzüberschreitend identifiziert oder Web- Sites, deren Inhalte gegen die Konvention verstoßen, grenzüberschreitend aus dem Netz entfernt werden können. Rechte unver- dächtiger Dritter sind nicht gesondert geschützt. Rassistische bzw. fremdenfeindliche Inhalte sind auf US-Wunsch mit Hinweis auf die Meinungsfreiheit nicht berücksichtigt. Das Übereinkommen repräsentiere zudem„einen Markstein im Vertragssystem des Eu- roparates zur Bekämpfung von Terrorismus und organisiertem Verbrechen“ (Hans Christian Krüger, damals stellvertretender Generalsekretär des Europarates).

Ein rund um die Uhr tätiges internationales Kontaktnetzwerk zur raschen Amtshilfe wurde eingerichtet.

Deutschland

Zur Bekämpfung der Internetkriminalität wurde in Deutschland beim Bundeskriminal- amt das Technische Servicezentrum Informations- und Kommunikationstechnologien (TeSIT) aufgebaut, dessen vomehmliche Aufgabe es nach Angaben des Innenministeri- ums ist,„technische Unterstützung bei Exekutivmaßnahmen und Ermittlungen in Da- tennetzen zu leisten“.

Dem TeSIT ist zudem die Anfang 1999 eingerichtete Zentralstelle für anlassunabhängi- ge Recherchen in Datennetzen (ZaRD) zugeordnet. Das Bundeskriminalamt wertet ei- genen Angaben zufolge das Internet„rund um die Uhr systematisch und anlassunab- hängig auf polizeilich relevante - insbesondere kinderpomographische - Inhalte aus und führt gegebenenfalls die Beweiserhebung, -Sicherung und - dokumentation durch“. Es wird auf„eine beachtliche Zahl“ von Fahndungserfolgen verwiesen. Hervorgehoben wird auch,„dass die Polizei mit der rasanten technischen Entwicklung Schritt halten muss“. Bei der Verfolgung sei es jedoch ein großes Problem, dass Täter global agieren könnten, Behörden jedoch nur national und regional begrenzt. Auch die Polizeien der einzelnen Bundesländer sind an der Bekämpfung der Intemet- kriminalität beteiligt. Beispielsweise besteht seit 2009 beim Landeskriminalamt Nieder- sachsen eine„Zentralstelle Internetkriminalität“ mit 20 Mitarbeitern.

Der Bund Deutscher Kriminalbeamter (BDK) und die Stiftung Deutsches Forum für Kriminalprävention (DFK) haben unter Mitarbeit von Vertretern aus Forschung und Wirtschaft im Juni 2009 der Bundesregierung ein fertiges und sofort umsetzbares Kon- zept für mehr Sicherheit im Internet vorgelegt. Es handelt sich um das Online- Angebot Web Patrol unter dem Motto Der 8. Sinn im Netz. Grund dafür sind ungefilterter Inter- netzugänge mit Inhalten wie Pornographie, Pädophilie, Islamismus, Rechts- und Linksextremismus, Terrorismus, die für Kinder und Jugendliche frei verfügbar sind. Web Patrol beinhaltet ein Informationsportal das zielgruppenorientiert über Fragen der Sicherheit und des Verhaltens informieren soll und ein Programm, das in der Lage ist verdächtige Inhalte direkt zu melden. Intemetnutzer sollen so durch einfaches Anklik- ken eines zusätzlichen Buttons im Browser mittels einer automatisch generierten Mel- dung Erkenntnisse über suspekte Inhalte, fragwürdige Umtriebe, Datenklau, Übergriffe in Chatrooms und strafrechtlich relevantes Material an eine unabhängige Clearingstelle, die sich aus einem interdisziplinären Team aus Kriminalisten, Psychologen und Sozio- logen zusammensetzt, übermitteln können.

Diese bewertet eingehende Meldungen gibt eine erste Rückmeldung und leitet den Vor- gang an zuständige Institutionen weiter. [26] Da das Internet zunehmend als Medium für die Vorbereitung und die Ausführung abweichenden Verhaltens bis hin zur Durchfüh- rung krimineller Taten genutzt werde und nicht sensibilisierte Personen ein leichtes Op- fer für Intemetkriminelle würden oder selbst durch die Möglichkeiten des Internets zu kriminellen Taten angeregt würden, fordert der BDK, das Modell noch vor der nächsten Legislaturperiode umzusetzen. 20. Computerkriminalität

Der Begriff Computerkriminalität oder Cyberkriminalität (engl. Cybercrime) umfasst „alle Straftaten, die unter Ausnutzung der Informations- und Kommunikationstechnik (IuK) oder gegen diese begangen werden“.

Definition

Es gibt keine allgemein gültige Definition des Begriffs Computerkriminalität. Gewöhn- lich sind darunter alle Straftaten zusammengefasst, die unter Ausnutzung der Informa- tions- und Kommunikationstechnik oder gegen diese begangen werden. Im polizeili- chen Bereich wird darüber hinaus zwischen Computerkriminalität im engeren Sinn und Computerkriminalität im weiteren Sinn unterschieden.

Cyberkriminalität lässt sich dabei unterscheiden in:

-Computerkriminalität im engeren Sinne, für diese Straftaten wird lediglich ein Compu- ter mit oder ohne Internetnutzung als Tatwaffe eingesetzt

-Intemetkriminalität, diese Straftaten basieren auf dem Internet oder gesche- hen mit den Techniken des Internets

Die Unterscheidung ist, dass unter Intemetkriminalität auch viele Straftaten und Verge- hen fallen, die auch ohne Internet möglich wären (unter anderem Verbreitung verbote- ner Inhalte, Belästigung), während Computerkriminalität sich in diesem Sinne speziell auf den Kontext der elektronischen Daten bezieht.

Cybercrime im engeren Sinne bezieht sich gemäß dem Deutschen Bundeskriminalamt (BKA) auf„spezielle Phänomene und Ausprägungen dieser Kriminalitätsform, bei de- nen Elemente der elektronischen Datenverarbeitung (EDV) wesentlich für die Tataus- führung sind“.

Der Begriff Computerkriminalität im weiteren Sinne wird in Deutschland umgangs- sprachlich auch für im Zusammenhang mit Computern stehende Handlungen verwandt, die zwar keine Straftaten, jedoch rechtswidrige Handlungen darstellen. Dabei hängt die Zuordnung zu den jeweiligen Bereichen insbesondere davon ab, ob am entsprechenden Tatort einschlägige Strafvor Schriften existieren.

Formen

Zu Cybercrime im engeren Sinn zählt das Cybercrime Bundeslagebild 2011 des deut- schen Bundeskriminalamts:

-Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen

-Computerbetrug, Betrug mit Zugangsberechtigungen zu Kommunikations- diensten

-Computersabotage

-Datenveränderung

-Fälschung beweiserheblicher Daten

-Täuschung im Rechtsverkehr bei Datenverarbeitung (§ 270)

Das österreichische Bundeskriminalamt fast ebenfalls darunter Straftaten, bei denen Angriffe auf Daten oder Computersysteme unter Ausnutzung der Informations- und Kommunikationstechnik begangen werden (beispielsweise Datenbeschädigung, Hak- king, DDoS -Attacken).

Zur Computerkriminalität im weiteren Sinne zählen in Deutschland alle Straftaten, bei denen die EDV zur Planung, Vorbereitung oder Ausführung eingesetzt wird. Diese er- strecken sich mittlerweile auf nahezu alle Deliktsbereiche, in denen das Tatmittel Inter- net eingesetzt wird. Beispielsweise:

-alle Ausprägungen digitaler Erpressung

-Urheber- und Markenrechtsverletzung

-unerlaubte Veranstaltung eines Glücksspiels

-der Vertrieb verbotener Substanzen

-der Austausch von kinderpornographischen Darstellungen oder Gewalt ver- herrli- chender Propaganda oder

-die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen

-die onlinebasierte Anbahnung eines sexuellen Missbrauches von Kindern - dem sog.

Cyber-Grooming Diese Delikte werden in der Polizeilichen Kriminalstatistik (PKS) nicht unter dem Be- griff Cybercrime registriert, sondern mit speziellen PKS -Schlüsselnummern.

In Österreich versteht man unter Straftaten der Computerkriminalität im weiteren Sinne, Delikte bei denen die Informations- und Kommunikationstechnik zur Planung, Vorbe- reitung und Ausführung für herkömmliche Kriminal Straftaten eingesetzt wird, wie bei- spielsweise Betrugsdelikte, Kinderpornografie und Cyber-Mobbing.

Fallzahlen in Deutschland

Gemäß BKA-Lagebild wurden 2012 insgesamt 63.959 Fälle von Cybercrime im enge- ren Sinn erfasst.

Die Fälle von Computerbetrug (24.817) sind gegenüber 2011 um 7, 13 % gefallen, auch „Betrug mit Zugangsberechtigung zu Kommunikationsdiensten“ (2.952) haben 2012 um rund 38 % abgenommen. Bei den Delikten„Fälschung beweiserheblicher Daten, Täuschung im Rechtsverkehr bei Datenverarbeitung“ (8.539) ist eine Zunahme um rund 1 1 % zu verzeichnen. Während die„Straftaten durch Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen“ 16.794 Fälle ausmachten. Delikte„Datenver- änderung/ Computersabotage“ (10.857) sind gegenüber 2011 um fast 140 % gestiegen. Mit einem Anteil von rund 39 % ist Computerbetrug die größte Straftatengruppe aller im Lagebild ausgewiesenen Fälle.

Computerkriminalität im weiteren Sinn bezieht über die unter Cyberkriminalität sub- sumierten Straffalle hinaus auch die Internetkriminalität ein. Welche Bedeutung das Tatmittel Internet "gewonnen" hat, zeigt sich daran, dass Internetkriminalität mit 229.408 Fällen fast 10-mal so viele Fälle aufweist, wie Cybercrime im engeren Sinn. Allein Phishing in Zusammenhang mit Onlinebanking verursachte 2012 einen Gesamt- schaden von 13,8 Mio.€.

Durch Cybercrime verloren bereits 2/3 der deutschen Unternehmen Firmengeheimnisse. Damit steht Deutschland auf Platz 2, hinter den USA und vor Frankreich. Situation in der Schweiz

Mit der Ratifikation der Europaratskonvention über die Cyberkriminalität beteiligt sich die Schweiz an der verstärkten internationalen Bekämpfung der Computer- und Inter- netkriminalität. Die Konvention trat für die Schweiz am 1. Januar 2012 in Kraft. Zum gleichen Zeitpunkt hat der Bundesrat die erforderlichen Gesetzesanpassungen in Kraft gesetzt. Der Straftatbestand des unbefugten Eindringens in eine elektronische Datenver- arbeitungsanlage (EDV) („Hacking“, Art. 143 bis 147 schweizerisches StGB) liegt nun im Bereich der Strafbarkeit. Auch werden neu bereits das Zugänglichmachen und das in Umlaufbringen bringen von Passwörtern, Programmen und anderen Daten unter Strafe gestellt, wenn der Betreffende weiß oder in guten Glauben davon ausgehen muss, dass diese für das illegale Eindringen in ein geschütztes Computersystem verwendet werden können (Siehe Hackerparagraph, bezogen auf Deutschland § 202c deutsches StGB).

In der Schweiz ist es die schweizerische Koordinationsstelle zur Bekämpfung der Inter- netkriminalität (KOBIK) welche Statistik über verfolgte Computerverbrechen führt und diese in einem jährlichen Rechenschaftsbericht veröffentlicht. Für das Geschäftsjahr 2012 wurden im Mai 2013 die aktuelle Statistik veröffentlicht. Über das Onlineformular auf der Webseite wurden 8242 Meldungen abgegeben, verglichen zum Vorjahr ist das ein Anstieg von 55 %. Zum ersten Mal seit Bestehen von KOBIK überholte die Anzahl der Meldungen über strafbare Handlungen gegen das Vermögen (3260 Meldungen) die der Meldungen über strafbaren Handlungen gegen die sexuelle Integrität (3083 Mel- dungen). In deutlich geringerem Umfang wurden strafbare Handlungen gegen Leib und Leben (99 Meldungen) und strafbare Handlungen gegen den öffentlichen Frieden (85 Meldungen) verübt. Dabei sei zu bemerken, dass die eingegangen Meldungen mit 80 % strafrechtlicher Relevanz von guter Qualität sind.

Situation in Österreich

Im Jahr 2013 verzeichnete das österreichische Bundeskriminalamt 11.199 angezeigte Fälle von Cybercrime. Aufgeklärt wurden 17,8 %. 421 Fälle davon betreffen Datenver- arbeitungsmissbrauch mit Bereicherungsabsicht inklusive gewerbsmäßigem betrügeri- schem Datenmissbrauch, bei dem Daten eingegeben, verändert, gelöscht, unterdrückt oder auf andere Art der Datenverarbeitungsablauf gestört wird (§ 148a StGB). Unter diesen Paragraphen fallen auch Phishing und Malware -Angriffe. Die Funktionsfähigkeit eines Computersystems gemäß § 126b StGB wurde 2013 in Österreich in 470 Fällen gestört und zur Anzeige gebracht.

Unter diesen Paragraphen fallen auch DDoS -Attacken. Der widerrechtliche Zugriff auf Computersysteme ist in Österreich in § 118a StGB geregelt. 2013 wurden 391 Fälle an- gezeigt. 45,6 Prozent der Tatverdächtigen sind zwischen 26 und 40 Jahre alt, 26,9 % der Tatverdächtigen sind über 40. Die Täter stammten zu 58,3 Prozent aus dem österreichi- schen Inland. 468 Tatverdächtige wurden in Deutschland geortet, 373 in Serbien, 176 in Nigeria.

Man versucht, die Arbeit zur Bekämpfung von Computerkriminalität in Österreich zu professionalisieren, um der zunehmenden Professionalisierung der Täter gegenübertre- ten zu können. Deshalb wurde im österreichischen Bundeskriminalamt ein Cybercrime- Competence-Center (C4) eingerichtet. Die Ermittler und IT- Forensiker werden auf in- ternationale Schulungen geschickt, wie etwa der International Association for Computer Informations Systems (IACIS) und der European Cybercrime Training and Education Group (ECTEG). Im Sommer 2013 wurde aufgrund eines Hinweises vom FBI im Rah- men der Europol-Operation "BlackShades" 19 tatverdächtige Hacker festgenommen.

Schäden

Gemäß Lagebild werden in der deutschen Kriminalstatistik (PKS) nur die Schadens- summen bei den Straftaten "Computerbetrug" und "Betrug mit Zugangsberechtigungen zu Kommunikationsdiensten" erfasst.

Diese Schäden sind 2011 um rund 16 % auf rund 71,2 Mio. Euro gestiegen (2010: 61,5 Mio. Euro). Davon entfallen 2011 rund 50 Mio. Euro auf den Bereich Computerbetrug und rund 21,2 Mio. Euro auf den Betrug mit Zugangsdaten zu Kommunikationsdien- sten. Für Phishing im Bereich Onlinebanking hat das BKA eine durchschnittliche Schadens- summen errechnet: für 2011 rund 4.000 Euro pro Fall und insgesamt 25,7 Mio Euro. Vergleicht man die errechnete (ungefähre) Schadenssumme mit der von 15,7 Mio Euro für 2007, so ergibt sich ein Anstieg von 35 %. Angesichts des "vorhandenen Scha- denspotenzials und der Lukrativität für die Täterseite" bildetPhishing "weiterhin einen Schwerpunkt im Bereich Cybercrime" (gemeint ist: Computerkriminalität im weiteren Sinn - der Verf.).

Die Schaffung einer europaweiten„European cybercrime Plattform“ gehört zu den Handlungsfeldem der„Digitalen Agenda“.

Gemäß Symantec ist Deutschland (2012) "mit einem Schaden durch bösartige Software von 24 Milliarden Euro die Nr. 1 in Europa"; weltweit entstand ein "Schaden von 284 Milliarden Euro", so die Sicherheits-Managerin Orla Cox von Symantec, Dublin.

Gegenmaßnahmen

In verschiedenen Ländern wurden inzwischen spezielle Polizeieinheiten mit der Be- kämpfung von Computerkriminalität beauftragt. Europol hat seit 2013 eine eigene Ab- teilung zur Koordination der Zusammenarbeit eingerichtet, das Europäische Zentrum zur Bekämpfung der Cyberkriminalität (EC3). In Deutschland wurden seit 2014 bei den Landeskriminalämtem und beim Bundeskriminalamt sogenannte Zentrale Ansprechstel- len Cybercrime (ZAC) eingerichtet.

21. Darknet

Darknet (englisch für„Dunkles Netz“) beschreibt in der Informatik ein Peer-to-Peer- Overlay-Netzwerk, dessen Teilnehmer ihre Verbindungen untereinander manuell her- stellen. Dieses Konzept steht im Gegensatz zu konventionellen Peer-to-Peer- Netzwer- ken, bei denen zumeist die Verbindungen zu den Clients fremder Personen automatisch und willkürlich initiiert werden. Im Ergebnis bietet ein Darknet ein höheres Maß an Si- cherheit, da einem Angreifer der Zugriff auf das Netzwerk nicht ohne weiteres möglich ist - oder er im Idealfall gar nichts von der Existenz des Netzwerks weiß. Um neue Per- sonen in ein Darknet zu integrieren, müssen diese gewöhnlich von Teilnehmern einge- laden oder akzeptiert werden. Stellenweise ist dies auch nur Teilnehmern möglich, die über Privilegien verfugen.

Überblick

Die Daten werden häufig verschlüsselt übertragen und gespeichert. Ihre Anwendung reicht von normalem Datenaustausch zwischen Privatpersonen über kleine Tauschbör- sen-Netzwerke für Musik und Filme bis hin zur Vernetzung von Regimekritikem. Um dem Vorwurf der Nutzung beispielsweise zur Urheberrechtsverletzung durch Musik- tausch zu begegnen, wird von Darknet- Betreibern betont, dass die Meinungsfreiheit, besonders in Zensurländem wie China, durch solche Netzwerke gestärkt werden kann.

Arbeitsweise

Der Einstieg ins Darknet mit dem Tor Browser

Falls das Netz dem Filesharing dient, bezeichnet Darknet eine Art von Friend-to- friend-Netzwerk (F2F). Die meisten File sharingprogramme sind keine Darknets, da die Knoten (Peers) mit jedem anderen Knoten (öffentliche, ungeprüfte peers) im Netzwerk kommunizieren können.

Ein Freund-zu-Freund-Netzwerk unterscheidet sich von einem Darknet insofern, als ein Freund-zu-Freund-Netzwerk die Weiterleitung von Dateien auch an die Freunde der Freunde unterstützt, die IP-Adressen der Freunde jedoch den Freunden nicht ersichtlich sind. Ein F2F-Netzwerk muss daher dezentral organisiert sein (man kennt die IP- Adressen der Freunde, aber deren Freunde nicht), ein Darknet kann auch zentral organi- siert sein (das heißt, auch ein Hub mit allen Freunden könnte ein Darknet sein; hier kennen jedoch alle die IP-Adressen von allen).

Die vielleicht bekannteste Darknet-Software ist WASTE von Nullsoft. Ein echtes F2F- Netzwerk kann über den Instant Messenger Turtle F2F errichtet werden, der auch File- sharing über den Client giFT erlaubt. Dabei kennt man als Teilnehmer - anders als WASTE im Broadcasting-Modus - die Freunde der Freunde nicht. In Turtle wird somit ein Schildkröten-Netzwerk gegründet, in dem sich nur Verbindungen etablieren lassen, die von geprüften Freunden kommen. Turtle scheint jedoch nicht weiter entwickelt zu werden, ähnliche Ansätze werden aber auch von RetroShare, HybridShare, OnShare, ExoSee, GigaTribe oder Gazzera verfolgt.

Freenet, ein Netz zum anonymen und zensurfreien Informationsaustausch, arbeitet ab Version 0.7 daraufhin, ein globales Darknet zu bilden, das Millionen Teilnehmer haben kann. Solch ein untypisches Darknet soll durch eine Anwendung des Kleine- Welt- Phänomens möglich sein.

Begriffsgeschichte

Bereits in den 1970er Jahren wurde mit dem Begriff Darknet vom ARPANET isolierte Netzwerke bezeichnet[3] und durch den Artikel The Darknet and the Future of Content Distribution aus dem Jahre 2002 weiter popularisiert. Vier Microsoft-Angestellte argu- mentieren darin, das Vorhandensein von Darknets sei das wesentliche Hindernis in der Entwicklung funktionierender Techniken zur digitalen Rechteverwaltung.

Rezeption

Aufgrund der Eigenschaften des Darknets werden erhebliche Möglichkeiten für krimi- nelle Aktionen, wie etwa illegalem Drogen- oder Waffenhandel gesehen. Dahingehende kriminalistische Ermittlungen werden in jüngerer Zeit verstärkt durchgeführt. Eine An- fang Februar 2016 veröffentlichte Studie des britischen Thinktanks International Insti- tute for Strategie Studies stufte 57 Prozent von 5205 untersuchten aktiven Seiten im Darknet inhaltlich als„illegal“ ein.

Jedoch würde über ein Drittel der Angebote legal genutzt, darunter auch Hidden Ser- vices wie jene von Facebook oder Mailbox.org. Constanze Kurz, Sprecherin des Chaos Computer Clubs (CCC), kritisierte auf netzpolitik.org eine einseitige Sicht der Mas- senmedien auf das Darknet; so würden„verschlüsselte Netzwerke genauso von Journa- listen, von Menschenrechtsorganisationen, von Whistleblowem oder von Menschen, die sich aus anderen Gründen schützen müssen, verwendet.“ Der Sprecher des CCC Linus Neumann sagte:„Das Darknet ist das Internet, wie man es sich eigentlich wünschen würde.

Ein Netz ohne Zensur und Überwachung, mit all seinen Vor- und Nachteilen“. Die in Deutschland geführte Debatte um Darknet-Kriminalität zeige auch, dass man in einer relativ freien Gesellschaft lebe.„In einem Land wie China landest du schneller im Darknet, weil du deine Kommunikation stärker schützen musst.“ Der Geschäftsführer der Menschenrechtsorganisation Reporter ohne Grenzen (ROG), Christian Mihr, ver- weist auf die Kommunikation per Darknet in Ländern wie Syrien oder Iran. Jedoch würde gerade das Darknet auch für Deutschland relevant sein, da„auch hier [...] das Internet immer mehr überwacht“ werde. Mit zunehmender Überwachung steige„die Zahl derer, die die Anonymität von Darknets schätzen lernen.“ Man habe ein Recht auf „anonyme Kommunikation“, und eine Gleichsetzung von Kriminalität und Darknet sei „brandgefährlich“.

Besondere Bedeutung hat das Darknet auch für Whistleblower, diesbezüglich haben auch schon bedeutende Zeitungen wie die New York Times Seiten im Darknet einge- richtet, um dort anonymisiert vertrauliche Information erhalten zu können.

Der Telegram Messenger gehört aufgrund seiner Merkmale mit Verschlüsselungund nach dem Verbot von Territorien verschiedener Länder zum Darknet. Aufgrund der Anonymität enthält es verschlüsselte Kanäle für den Verkauf verbotener Substanzen, die Rekrutierung verschiedener Organisationen und die Koordination regierungsfeindli- cher Maßnahmen.

22. Peer-to-Peer

Peer-to-Peer-Modell

Peer-to-Peer (P2P) (von englisch peer„Gleichgestellter“,„Ebenbürtiger“) und Rechner- Rechner- Verbindung sind synonyme Bezeichnungen für eine Kommunikation unter Gleichen, hier bezogen auf ein Rechnernetz. In einigen Kontexten spricht man auch von Querkommunikation.

In einem reinen Peer-to-Peer-Netz sind alle Computer gleichberechtigt und können so- wohl Dienste in Anspruch nehmen, als auch zur Verfügung stellen. In modernen P2P- Netzwerken werden die Netzwerkteilnehmer jedoch häufig abhängig von ihrer Qualifi- kation in verschiedene Gruppen eingeteilt, die spezifische Aufgaben übernehmen. Kemkomponente aller modernen Peer-to-Peer-Architekturen, die meist bereits als Overlay-Netz auf dem Internet realisiert werden, ist daher ein zweites internes Overlay- Netz, welches normalerweise aus den besten Computern des Netzwerks besteht und die Organisation der anderen Computer sowie die Bereitstellung der Such-Funktion über- nimmt.

Mit der Suchfunktion („lookup“) können Peers im Netzwerk diejenigen Peers identifi- zieren, die für eine bestimmte Objektkennung (Object-ID) zuständig sind. In diesem Fall ist die Verantwortlichkeit für jedes einzelne Objekt mindestens einem Peer fest zu- geteilt, man spricht daher von strukturierten Overlays. Mittels der Such- Operation können die Peers nach Objekten im Netzwerk suchen, die gewisse Kriterien erfüllen (z. B. Datei- oder Buddynamen-Übereinstimmung). In diesem Fall gibt es für die Objekte im P2P-System keine Zuordnungsstruktur, man spricht also von unstrukturierten Over- lays.

Sobald die Peers, die die gesuchten Objekte halten, in dem P2P-System identifiziert wurden, wird die Datei (in Dateitauschbörsen) direkt, d. h. von Peer zu Peer, übertra- gen. Es existieren unterschiedliche Verteilungsstrategien, welche Teile der Datei von welchem Peer heruntergeladen werden soll, z. B. BitTorrent.

Der Gegensatz zum Peer-to-Peer-Modell ist das Client-Server-Modell. Bei diesem bie- tet ein Server einen Dienst an und ein Client nutzt diesen Dienst. In Peer-to-Peer- Net- zen ist diese Rollenverteilung aufgehoben. Jeder Teilnehmer ist ein peer, denn er kann einen Dienst gleichermaßen nutzen und selbst anbieten. Charakterisierung von Peer-to-Peer-Systemen

Typische, aber nicht notwendige Charakteristika von Peer-to-Peer-Systemen sind:

-Peers weisen eine hohe Heterogenität bezüglich der Bandbreite, Rechenkraft, Online- Zeit, ... auf.

-Die Verfügbarkeit und Verbindungsqualität der Peers kann nicht vorausgesetzt werden („Chum“).

-Peers bieten Dienste und Ressourcen an und nehmen Dienste anderer Peers in An- spruch (Client-Server-Funktionalität)

-Dienste und Ressourcen können zwischen allen teilnehmenden Peers ausgetauscht werden.

-Peers bilden ein Overlay-Netzwerk und stellen damit zusätzliche Such-Funktionen zur Verfügung.

-Peers haben eine signifikante Autonomie (über die Ressourcenbereitstellung).

-Das P2P-System ist selbstorganisierend.

Alle übrigen Systeme bleiben konstant intakt und nicht skaliert.

(nach: Steinmetz, Wehrle 2006)

Typen von Peer-to-Peer-Systemen

P2P-Systeme lassen sich in unstrukturierte und strukturierte P2P-Systeme unterteilen. Unstrukturierte P2P-Systeme unterteilen sich nochmals nach der Art ihres Aufbaus.

Man unterscheidet:

-Zentralisierte P2P-Systeme (Beispiel: Napster), welche einen zentralen Server zur Verwaltung benötigen, um zu fünktionieren

-Reine P2P-Systeme ohne zentrale Instanz (Beispiele: RetroShare, Gnutella 0.4, Free- net) Eine spezielle Art eines reinen, dezentralen Netzwerkes bildet das friend-to-friend- oder Web-of-Trust-Netzwerk, bei dem keinerlei Verbin- düngen zu unbekannten IP- Adressen unterhalten werden, sondern aus- schließlich Verbindungen zu Freunden (tru- sted friends) etabliert werden.

-Hybride bzw. Hierarchische P2P-Systeme, welche dynamisch mehrere zent- rale Ser- ver („Superknoten“) zur Verwaltung bestimmen (Beispiele: Gnutella 0.6, Gnutella2 (G2), JXTA)

Zentralisierte und reine P2P-Systeme bezeichnet man als Systeme erster Generation, während dezentrale Systeme als Systeme zweiter Generation bezeichnet werden. Sy- steme, die Dateien über nicht-direkte Verbindungen weiterreichen, sind Systeme dritter Generation. Siehe dazu auch ausführlich den Begriff Filesharing.

Strukturierte P2P-Systeme verwenden oftmals eine Verteilte Hashtabelle (DHT). In strukturierten Systemen können daher Suchen aus einem verteilten Index heraus beant- wortet werden.

Standardisierung und Zukunft

Die Zukunft der Peer-to-Peer-Technik wird vor allem davon abhängen, ob es gelingt, einen Standard zu definieren - eine Art Plattform -Technik, die es ermöglicht, weitere Anwendungen aufzusetzen.

JXTA ist ein solcher Standard, der stark von Sun Microsystems unterstützt wurde und Open Source ist. Sun stellte die zurzeit umfangreichste und stabilste Referenzimple- mentierung her.

Gnutella ist ein weiterer offener Standard, der umfangreich getestet ist, jedoch bisher fast ausschließlich für Dateiverteilung und dezentrales Suchen von Dateien genutzt wird.

Außerdem ist es denkbar, dass die Netzwerkübertragungsleistung ähnlich der Rechen- leistung bei den PCs steigen wird, sodass die Möglichkeit besteht, dass ein Peer noch den„übernächsten“ Peer kennen kann und dass die Sichtweite eines Peer über Datenbe- stände und andere Peers weiter anwachsen kann.

23. Overlay-Netz

Beispiel eines Overlay-Netzwerks

Ein Overlay-Netz ist ein Rechnernetz, das auf ein bestehendes Netz (Underlay genannt) aufsetzt. Hauptmerkmale eines Overlay-Netzes sind:

-(logisches) Netz oberhalb existierender Infrastruktur

-oftmals eigener Adressraum mit eigener Adressierung (unabhängig vom Un- derlay) -ggf. Einsatz eigener Wegewahlverfahren

Das Overlay-Netz wird daher zum Aufbau einer zusätzlichen Topologie (physikalisch, logisch, strukturell,...) genutzt. Mit der neu entstandenen Struktur lassen sich beispiels- weise aktuelle Technologien wie IPv6 testen oder alternative Routen für die Daten an- legen. Peer-to-Peer-Netze, wie zum Beispiel Gnutella und Chord, sind ebenfalls auf ei- ner Overlay-Netzstruktur aufgebaut, über die beispielsweise effizientes Suchen und eine gewisse Netzkoordination erst möglich werden. Auch auf diese Overlays können weite- re Overlays aufsetzen, z. B. für das Monitoring des P2P Overlays wird SkyEye genutzt, das einen eigenen Adressraum einfuhrt und eigene Protokolle mitbringt, die die Funk- tionalität der P2P Overlays voraussetzen.

Das Internet war in seinen Anfängen ein Overlay-Netz über dem bestehenden Telefon- netz. Teilweise ist dies auch heute so, da es noch immer Nutzer gibt, die sich per Mo- dem mit dem Internet verbinden. Mittlerweile wird das Telefonnetz durch VoIP aber zunehmend zu einem Overlay -Netz, das auf dem Internet aufsetzt.

Einige Beispiele für Overlay-Netze sind:

-Content Addressable Network (CAN)

-Chord -DiffServ (separiert physikalisches Netz in mehrere logische durch Einteilung der Netz- -Ressourcen in verschiedene Dienstklassen)

-Freenet

-Gnutella, Gnutella2

-GNUnet

-I2P

-Kademlia

-Lightning Netzwerk (Virtualisiert den Informationsaustausch über verschie- dene Blockchain-Netzwerke durch Atomic Swaps)

-Retro Share

-MBone, 6Bone, ABone

-P-Grid

-Pastry/Tapestry

-PNRP

-RON

-Tor

-XBone

-SkyEye

24. Iriserkennung

Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Personen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Auges aufgenommen, mit algorithmischen Verfahren die charak- teristischen Merkmale der jeweiligen Iris identifiziert, in einen Satz numerischer Werte (Merkmalsvektor, engl.„Template“) umgerechnet und für die Wiedererkennung durch einen Klassifizierungsalgorithmus wie z. B. ein Neuronales Netz gespeichert bzw. mit einem oder mehreren bereits gespeicherten Templates verglichen. Das derzeit am weitesten verbreitete Verfahren und Template (Stand April 2007) in der kommerziellen Anwendung ist der auf Algorithmen des Mathematikers John Daugman beruhende Iriscode.

Kommerzielle Erkennungsverfahren erfassen etwa 260 individuelle optische Merkmale der Iris. Diese Merkmale entwickeln sich aus einem zufallsgesteuerten, morphogeneti- schen Prozess in den ersten Lebensmonaten einer Person und bleiben über die restliche Lebenszeit weitgehend unverändert. Auch eineiige Zwillinge haben keine identische Iris-Struktur. Die herausragende Eigenschaft der Iriserkennung in der praktischen An- wendung ist ihre im Vergleich zu anderen Biometrieverfahren äußerst geringe Zahl an falsch positiven Vergleichsergebnissen (engl „false matches“), d. h., die Wahrschein- lichkeit der Verwechslung eines Iriscodes mit dem eines Auges einer anderen Person ist nahezu Null. Dadurch eignet sich die Iriserkennung als zuverlässiges Identifikationsver- fahren auch in großen Datenbanken mit Millionen von Personendatensätzen, sowie für die Identifikation in Zutrittskontrollsituationen ohne primäres Erkennungsmerkmal, al- so ohne Ausweiskarten oder RFID-Tags.

Der Irisscan ist eine wissenschaftlich anerkannte, sichere Methode zur Identifizierung eines Menschen.

Ein weiteres Charakteristikum ist der geringe Bedarf an Rechenressourcen für den Iris- vergleich. Daher ist die Iriserkennung und -aufnahme besonders für den mobilen Ein- satz in PDA-großen Geräten geeignet.

Falsch negative Ergebnisse (engl „false non-matches“), also Fälle des Nichterkennens einer eigentlich erfassten Person, können sich insbesondere bei ungünstigen Aufnahme- bedingungen des Auges einstellen, wenn die Iris beispielsweise aufgrund von Brillen- rändem, Reflexionen auf Brillengläsern oder den bei größtenteils Ostasiaten (bzw. Femostasiaten) typischen engen Augenlidern nur unzureichend sichtbar ist.

Damit wäre eine Erfassung aller in der EU residierenden Personen, um ihnen für staatli- che und rechtsgeschäftliche Zwecke eine eindeutige Personenkennziffer zuordnen zu können. Die Iriserkennung würde dabei die Feststellung und Vermeidung von mehrfa- chen oder falschen Identitäten ermöglichen.

Anwendungen bestehen bereits in der Zutrittskontrolle zu Hochsicherheitsbereichen und bei automatisierten Grenzkontrollen (z. B. Flughäfen Frankfurt, Schiphol, Heathrow).

Bei der ersten Massenanwendung in der Einwanderungskontrolle der Vereinigten Ara- bischen Emirate ab 2002 gab es Versuche von illegalen Einreisenden, die Identifikation durch Irisscan zu vermeiden. Mithilfe medizinischer Augentropfen weitet sich die Pu- pille und die Iris zieht sich zusammen, so dass vorübergehend die Wiedererkennung verhindert ist. Daraufhin wurde das System so verändert, dass eine erweiterte Iris auto- matisch als solche erkannt wird und der Irisscan an der Person nach einigen Stunden wiederholt wird.

Gemeinsam mit der Gesichts- und Fingerabdruckerkennung zählt die Iriserkennung zu den von der ICAO vorgesehenen Biometrieformen für den Einsatz in elektronischen Pässen (ePass). Um die weltweite, herstellerunabhängige Interoperabilität der Daten zu gewährleisten, spezifiziert die Norm ISO/IEC 19794-6

„Austauschformat basierend auf Irisbildem“ die hierfür geltenden Erfordernisse an Iris- bildaufnahme und -Speicherung.

Für forensische Zwecke ist die Iriserkennung nur eingeschränkt geeignet, da schon we- nige Minuten nach dem Ableben einer Person ihre Irisstrukturen zerfallen.

In Mobiltelefonen wird die Iris-Erkennung zum Entsperren des Telefons anstatt eines PIN-Codes oder eines Fingerabdruckes verwendet. Diese Technik wurde erstmals im Fujitsu ARROWS NX F-04G eingesetzt. Auch die Mobiltelefone der Lumia 950 Reihe von Microsoft verwenden diese Technik der Authentifizierung.

Der Chaos Computer Club demonstrierte im Mai 2017, wie leicht die Iris-Erkennung beim Samsung Galaxy S8 überwunden werden kann. Zunächst muss man mit einer handelsüblichen Kompaktkamera ein Foto vom Gesicht des Galaxy-S8-Besitzers ma- chen. Weil der Iris-Scanner im Infrarotbereich arbeitet, muss die Kamera in den Nachtmodus versetzt werden. Anschließend wird das Auge digital vergrößert und das Foto mit einem Laserdrucker ausgedruckt. Nun legt man noch eine Kontaktlinse auf den Ausdruck, fertig ist das Fake-Auge für wenige Euro. Durch die Kontaktlinse ge- winnt das Auge Plastizität, dadurch lässt sich der Iris-Scanner austricksen.

In der kommenden Flaggschiff-Generation rund um das Galaxy S9 wird die Technik zur Iris-Erkennung stark verbessert. Höhere Auflösung und bessere Software für eine schnellere Erkennung sind die Eckpunkte für Samsungs Entwickler.

Biometrische Methoden zum Entsperren haben sich in den vergangenen Jahren zu ei- nem Quasi-Standard in Smartphones entwickelt, allen voran der Fingerabdrucksensor. Samsung bietet seit diesem Jahr auch das Erkennen der Iris als alternative Methode in seinen Top-Modellen an. Genau da will der Konzern Verbesserungen umsetzen. Laut einem Bericht des Korea Herald will Samsung die Auflösung für den Iris-Scanner von 2 Megapixel auf 3 Megapixel erhöhen, um feinere Details im Auge und der Iris abbilden zu können.

Ein Grund für die gezielte Weiterentwicklung soll die laut Samsungs eigener Aussage führende Rolle im Bereich biometrischer Authentifizierung für Bankgeschäfte sein, heißt es weiter.

Schnellere und sicherere Erkennung der Iris sind ein Ziel für das Galaxy S9 Samsung verspricht sich von der verbesserten Linse auch treffsichere Ergebnisse, selbst wenn der Benutzer eine Brille trägt, bei der es zwangsläufig zu Spiegelungen kommen kann. Selbst Bewegungen des Augapfels soll die optimierte Iris-Erkennung des Galaxy S9 (Plus) erheblich besser verkraften als die aktuelle Generation. Neben der Auflösung des Bildes zum Erkennen der Iris wollen die Techniker aber vor allem die Schnelligkeit massiv erhöhen. Zudem ist die Iris -Erkennung im Dunkeln auf der Liste derjenigen Dinge, die optimiert sowie verbessert werden sollen.

Jedoch ist die Hardware nur ein Teil des großen Ganzen - auch die Software spielt eine entscheidende Rolle. In diesem Punkt will sich Samsung ebenfalls deutlich verbesser- num die Erkennung schneller, genauer und damit vor allem sicherer zu machen. Kon- krete Details nannte der Bericht dazu nicht.

Funktionsweise eines Iris-Scanners: Zur Identifikation werden Iris-Scans besonders in der Medizin und Pharmazeutik eingesetzt. Spezielle Kameras nehmen die Iris auf und hinterlegen das Muster im System. Samsung nutzt beim Galaxy S7 Edge eine extra ein- gebaute Kamera und Infrarot-Licht. Es soll sich besonders eignen, da es die Muster der Regenbogenhaut sehr deutlich erfassen kann. Sichtbares Licht oder RGB -Bilder sind anfälliger für Einflüsse durch das Umgebungslicht. Details können leichter verloren ge- hen. Die Iris-Informationen werden beim Samsung-Mobilgerät verschlüsselt auf der Knox-Plattform direkt auf dem Gerät abgelegt.

Erkennung: Um sich erneut am Gerät anzumelden, liest die Kamera die Iris- Informa- tionen in einem festgelegten Abstand zwischen Gerät und Auge ein und vergleicht sie mit den hinterlegten Daten. Der Vorgang soll sehr schnell gehen und auch bei schlech- tem Licht funktionieren, da die Abstrahlung des Displays zur Datenerfassung genutzt wird.

Andere Zugangsmechanismen und Sicherheit: Microsoft bietet mit Hello bei Windows 10 eine Gesichtserkennung an, über die sich der Anwender am System anmelden kann. Das Verfahren setzt eine Tiefenkamera voraus, die zum Pixel auch die Entfernung zur Kamera erfasst. Zertifiziert sind die Realsense-Kamera von Intel und das herstellereige- ne System Kinect. Im Gegensatz zum integrierten Iris-Scanner müssen Sie hier extra Hardware erwerben. 25. Passwort

Ein Passwort, Kennwort, auch Passphrase, Schlüsselwort Codewort (auch Kodewort), Losung, Losungswort oder Parole (von italienisch la parola ,das Wort ) genannt, dient zur Authentifizierung. Hierzu wird eine Zeichenfolge vereinbart und benutzt, durch die sich jemand, meist eine Person, ausweist und dadurch die eigene Identität bestätigt.

Neben der Rolle Identifizieren von Personen werden Passwörter auch dazu verwendet, um bestimmte Berechtigungen nachzuweisen: Wer das Passwort (den richtigen Code) kennt, gilt als berechtigt. Beispiele: Parole beim Militär oder ein Zugangscode zum Öffnen von Türen.

Die Authentizität des sich so Ausweisenden bleibt nur höchstens so lange gewahrt, wie das Passwort geheim bleibt, das heißt, es Dritten nicht bekannt ist. Der Zusammenhang zwischen Passwort und dessen Nutzer muss gesondert hergestellt und überprüft werden (zum Beispiel durch die Bank auf dem besonders vor Manipulation geschützten Post- weg).

Eine Persönliche Identifikationsnummer (PIN) ist ein Passwort, das in der Regel aus- schließlich aus Ziffern besteht.

Häufiger Einsatz von Passwörtern findet in der Computer-/ Intemetwelt in Verbindung mit einem Benutzernamen statt. Hier ist das Passwort eine vom Nutzer selbstgewählte oder eine automatisch generierte, meist alphanumerische Zeichenfolge.

Passwörter werden in zahlreichen Bereichen verwendet, zum Beispiel als Element der Kindersicherung, um Kindern den Zugriff auf Fernseher, Receiver oder ungeeignete Programminhalte zu verwehren. Nachteil : Password Chaos durch immer neue, geän- derte und vergessene Passwörter.

Einmalkennwörter können nur einmal zur Authentifizierung benutzt werden und sind danach ungültig. So entsteht kein Schaden, wenn das Passwort während der Authentifi- zierung ausgespäht wird. Traditionell werden mehrere Einmalkennwörter auf Vorrat festgelegt und in Form einer Liste vermerkt, die sicher verwahrt werden muss. Solche Einmalkennwörter werden zum Beispiel als Transaktionsnummem (TAN) beim Online- Banking verwendet. Sie können aber auch erst kurz vor ihrer Benutzung unter Einbe- ziehung der Uhrzeit und einer PIN erzeugt werden und nur zur Benutzung binnen weni- ger Minuten geeignet sein.

Das Passwort sollte lang genug sein, um nicht durch Ausprobieren (Brute-Force- An- griff) ermittelt werden zu können. Das System sollte außerdem einen ausreichend gro- ßen Zeichensatz verwenden, mit dem das Passwort gebildet wird

Anstatt Passwörter manuell eingeben zu lassen, können Schlüssel auch in einer Schlüs- seldatei abgelegt werden. Bei Anwendungen wie beispielsweise SSH kann neben der Authentifizierung mit einem Passwort auch ein Public-Key- Verfahren eingesetzt wer- den. Der Vorteil ist dabei, dass die Gegenstelle den geheimen privaten Schlüssel nicht zu sehen bekommt. Auch hier wird der private Schlüssel in einer Datei gehalten und kann gegen unbefugtes Auslesen mit einem Passwort geschützt werden.

Die Schlüsseldatei ist eine Alternative zur manuellen Eingabe eines Kennworts. Damit können deutlich längere und komplexere Schlüssel verwendet werden und es besteht nicht mehr die Gefahr, das Kennwort zu vergessen. Allerdings kann die Schlüsseldatei durch Datenverlust verlorengehen. Das Angriffsszenario bei einem Kennwort besteht aus Ausspähen (beispielsweise durch einen Keylogger) oder Erraten (beispielsweise durch einen Wörterbuchangriff); eine Schlüsseldatei ist dagegen vor unbefugtem Zu- griff zu schützen, damit sie nicht kopiert wird. Häufig werden Schlüsseldateien deshalb zusätzlich mit einem Masterpasswort verschlüsselt.

26. Die Brute-Force-Methode

Die Brute-Force-Methode (von englisch brüte force ,rohe Gewalt ) bzw. Methode der rohen Gewalt, auch Exhaustionsmethode (kurz Exhaustion von lateinisch exhaurire , ausschöpfen ), ist eine Lösungsmethode für Probleme aus den Bereichen Informatik, Kryptologie und Spieltheorie, die auf dem Ausprobieren aller möglichen (oder zumin- dest vieler möglicher) Fälle beruht. Auch der Begriff erschöpfende Suche (engl ex- haustive search) ist in Gebrauch.

Für viele Probleme in der Informatik sind keine effizienten Algorithmen bekannt. Der natürlichste und einfachste Ansatz zu einer algorithmischen Lösung eines Problems be- steht darin, alle potenziellen Lösungen durchzuprobieren, bis die richtige gefunden ist. Diese Methode nennt man„Brute-Force-Suche“ (englisch brute-force search).

Die Brute-Force-Suche ist einfach zu implementieren und dazu bestimmt, die korrekte Lösung zu finden. Allerdings steigt der Aufwand an Rechenoperationen proportional zur Anzahl der zu probierenden möglichen Lösungen, wobei die Anzahl dieser mögli- chen Lösungen mit zunehmendem Umfang der Probleme häufig exponentiell rasch wächst.

Ein wichtiger Anwendungsbereich findet sich in der Computersicherheit. Ein oft ange- führtes Anwendungsbeispiel für die Brute-Force-Methode ist hier das Brechen oder umgangssprachlich„Knacken“ von Passwörtern.

Aus dem oben genannten Zusammenhang zwischen Umfang des Problems und Anzahl der benötigten Rechenoperationen lässt sich für das Beispiel des„Passwortknackens“ der Schluss ziehen, dass mit steigender Passwortlänge oder steigender Anzahl an mög- licherweise im Passwort vorhandenen Zeichen (Alphabet ohne Zahlen, mit Zahlen, mit Sonderzeichen) der Aufwand der Brute-Force-Methode schnell ansteigt. Die Methode ist in der Praxis häufig erfolgreich, da die meisten Benutzer kurze und einfache, damit unsichere Passwörter verwenden. Mit entsprechenden Werkzeugen können schon auf handelsüblichen Mittelklasse- Computern Millionen Passwörter je Sekunde ausprobiert werden.

In der Praxis werden Brute-Force-Angriffe auch dadurch erschwert, dass die Zahl der Versuche begrenzt ist und nach einigen erfolglosen Passworteingaben der Zugang ge- sperrt wird oder weitere Versuche erst nach einer Wartezeit möglich sind. Trotzdem wurde im September 2014 bekannt, dass z. B. Apple in seiner iCloud längere Zeit sol- che einfachen Maßnahmen nicht implementiert hatte und zumindest einfache Brüte - Force -Attacken möglich wäre

27. SIM-Karte

Die SIM-Karte (vom englischen subscriber identity module für„Teilnehmer- Identi- tätsmodul“) ist eine Chipkarte, die in ein Mobiltelefon eingesteckt wird und zur Identi- fikation des Nutzers im Netz dient. Mit ihr stellen Mobilfunkanbieter Teilnehmern mo- bile Telefonanschlüsse und Datenanschlüsse zur Verfügung.

Das SIM ist ein kleiner Prozessor mit Speicher (üblicherweise im ID-000-Format, das aus einer ID- 1 -Format-Karte herausgebrochen wird). Durch eine veränderbare PIN kann es vor unbefugter Benutzung geschützt werden. Mit Hilfe des SIM wird das Mobi- le Equipment (also üblicherweise das Mobiltelefon) einem Netz zugeordnet und authen- tifiziert. Für diese Zwecke ist auf dem SIM die IMSI gespeichert, welche bei Netzsuche und Einbuchung in ein Funknetz unverschlüsselt übertragen wird und ein Mithören von Mobilfunk-Telefonaten und die Eingrenzung des Standorts des Mobiltelefons innerhalb einer Funkzelle erlaubt (IMSI-Catcher). Andere auf dem SIM gespeicherte Zahlenfol- gen und Algorithmen dienen der Verschlüsselung der Sprach- und Signalisierungsdaten (Ciphering). Das SIM dient außerdem zum Speichern von temporären, netzbezogenen Daten sowie bevorzugten und gesperrten Netzen.

Darüber hinaus können ein Telefon- und Notizbuch, Speicher für Short-Message- Ser- vice-Mitteilungen (SMS) und Speicher der zuletzt gerufenen Telefonnummern inte- griert sein. SIM und Mobile Equipment bilden zusammen im GSM die Mobile Station. In Deutschland waren 2012 rund 115 Millionen SIM-Karten im Umlauf.

SIM-Kartenlesegerät Die SIM-Karte wird häufig im großen ID-1 -Format (85,6 mm x 54 mm) ausgeliefert. Der kleinere ID-000-Teil (25 mm x 15 mm) kann herausgebrochen werden. Aufgrund der immer kleineren Mobilgeräte wurde im Lauf der Zeit für D-Netz-Geräte das kleine ID-000-Format eingeführt. Inzwischen gibt es eine Vielzahl von Geräten, die stattdes- sen die noch kleinere Micro-SIM verwenden. In vielen modernen Smartphones wird be- reits das kleinste Format, die Nano-SIM verwendet.

Ein SIM-Toolkit ermöglicht es, kleine Programme auf einer SIM-Karte zu hinterlegen, beispielsweise Info-Services, mit denen aktuelle Informationen über Politik, Sport, Wetter zugestellt werden können. Die Mobilfunk-Betreiber O 2 , E-Plus, T-Mobile und Vodafone benutzen das, um ihren Homezone-Service anzubieten. Mit Hilfe des SIM- Toolkits wird dort angezeigt, ob sich das Mobiltelefon in der Homezone befindet.

Funktionen wie Aufladen oder Abfragen des Guthabens (bei vorbezahlten Prepaid- Kar- ten) sind möglich. Der Vorteil von Anwendungen auf der SIM-Karte besteht darin, dass diese unabhängig vom eingesetzten Gerät benutzt werden können (somit kann ohne er- sichtliche Funktionalitätsänderung das Handy gewechselt werden).

Verschiedene Hersteller arbeiten derzeit an der Entwicklung einer SIM-Karte mit grö- ßerem Speicherplatz, ähnlich den bekannten Speicherkarten wie SD-Karten. Dieser Speicher, bislang bis zu 128 GB, kann frei für MP3 -Audio oder andere Dokumente ge- nutzt werden.

Als SIM Access Profile wird eine Technik bezeichnet, mit der z. B. im Auto die SIM- Daten eines mit Bluetooth ausgestatteten Mobilgeräts von einem fest installierten Gerät gelesen werden und dieses selbst die Funkverbindung aufbaut. So lässt sich die Daten- übertragung durch die festinstallierte Außenantenne verbessern und der Stromverbrauch des Mobiltelefons reduzieren.

In Dual-SIM-Handys oder mit Hilfe von Dual-SIM-Adaptem können zwei oder mehr SIM-Karten in einem Gerät untergebracht werden, die entweder simultan (gleichzeitig) oder alternativ (wechselweise) aktiv sind. Auf einer SIM-Karte befinden sich acht Kontaktflächen. Verschiedene Karten variieren in der Anzahl und Aufteilung, spezifiziert wurden jedoch nur diese acht Kontakte mit folgender Belegung:

Über Vcc und GND wird der SIM-Karte die Betriebsspannung zugeführt. Es gibt SIM- Karten mit einer Betriebsspannung von 1,8 Volt, 3 Volt und bei der älteren Kartengene- ration 5 Volt (siehe Tabelle Typen). Die jeweilige Spannung wird in einigen Fällen auf der SIM-Karte aufgedruckt.

Wird eine SIM-Karte mit einer falschen Spannung in einem Mobiltelefon verwendet, kann es zu Fehlermeldungen, Abstürzen oder ungewöhnlich schneller Akku- Entladung kommen.

Sollte eine SIM-Karte nicht mehr auf Anfragen des Mobilgerätes reagieren, kann sie über den Reset-Kontakt neu gestartet werden. Über CLK wird der Takt des Mobilgeräts zur Synchronisation des über den I/O-Kontakt stattfmdenden Datentransfers übertragen. Die optionale Programmierspannung Vpp wird nur bei der Herstellung benötigt, um die interne Software der Karte zu initialisieren oder zu löschen. Die normalen Lese- und Schreibvorgänge auf den Anwenderbereich einer SIM-Karte (z. B. im Rahmen der Nut- zung in einem Mobilgerät) kommen ohne diese Spannung aus.

Die beiden zusätzlichen Kontaktpins sind für derzeit noch rare achtpolige SIM -Karten reserviert, wie sie in zukünftigen mobilen Geräten Verwendung finden sollen - derzeit gibt es mehrere konkurrierende Entwürfe, wofür diese Kontakte verwendet werden sol- len, u. a. sind SIM-Karten mit sehr hohen Speicherkapazitäten im Gespräch, die über eine Variante des USB-Protokolls angekoppelt werden könnten. Weitere Ideen betref- fen spezielle Verschlüsselungsfunktionen oder Nahfeldkommunikation (NFC).

Aktuelle europäische Mobilfunktelefone verwenden jedoch nach wie vor nur sechspoli- ge SIM-Karten.

Die I/O-Einheit regelt den Zugriff auf die SIM-Karte. Sie ist die Schnittstelle der CPU zum Mobilgerät. Die CPU dient hauptsächlich der Speicherverwaltung, sie kann aller- dings kleine Programme ausfuhren. Der Speicher besteht aus einem ROM, einem RAM und einem EEPROM. Im ROM ist das Betriebssystem der Karte abgelegt. Es werden dort Brandings der Mobilfunkuntemehmen gespeichert (Startlogos). Das RAM beinhal- tet die gerade gebrauchten Daten, es ist flüchtig. Im EEPROM werden Benutzerdaten abgelegt.

Lebensdauer

SIM-Karten haben eine begrenzte Lebensdauer. Mit jedem Lösch-Schreibzyklus des nichtflüchtigen Kartenspeichers, beispielsweise bei einer Authentifizierung im Netz al- tert der verwendete Speicher. Ursprünglich garantierten die Hersteller der SIM- Chips 100.000 solcher Zyklen. Bei aktuellen Chips beträgt dieser Wert 500.000 bis eine Mil- lion. Um diesen Prozess zu entschärfen, bauen die SIM-Hersteller im Betriebssystem Schutzmechanismen ein.

Unabhängig davon werden einige ältere SIM-Karten von aktuellen Mobiltelefonen nicht erkannt. Ein Grund kann sein, dass die SIM-Karte mit der vom Gerät zur Verfü- gung gestellten Spannung nicht mehr funktioniert. Ein anderer Grund kann darin liegen, dass das Gerät eine USIM-Karte benötigt.

Formate

In der technischen Fachwelt wird die Hardware der SIM-Karte Universal Integrated Circuit Card oder kurz UICC genannt Seit Entwicklung des UMTS-Standards durch das Europäische Institut für Telekommu- nikationsnormen Ende der 1990er Jahre wird davon ausgegangen, dass mobile Endgerä- te in Zukunft kleiner sein oder jedenfalls weniger Platz im Inneren haben werden und daher SIM-Karten mit geringer Größe erforderlich sind.

Full-Size-SIM

Erste GSM-Geräte hatten einen Schlitz, um SIM-Karten im Scheckkartenformat einzu- führen. Oft wurden diese SIM-Karten auch unter dem Akku eingelegt, wie z. B. beim Sharp TQ-G700. Ein weiteres Beispiel für ein solches Gerät ist das D-Netz- Mobiltele- fon„Siemens S3com“ von 1995. Die Bauform der Geräte war entsprechend mindestens so breit wie eine Scheckkarte.

Da der SIM-Chip keine so große Fläche beanspruchte, hat sich schon Ende der 1990er- Jahre das bedeutend kleinere UICC -Format etabliert. Deshalb kamen nur wenige Geräte mit Full-Size-SIM auf den Markt. In den Anfangszeiten wurde die UICC-SIM-Karte aus der scheckkartengrossen SIM-Karte ausgestanzt; später waren die MINI-SIM- Karten aus der Full-Size-SIM-Karte herausbrechbar. Im umgekehrten Fall (bei einem Gerät mit scheckkartengrosser SIM-Karte) konnte i. d. R. die Originalkarte (aus der die UICC-SIM-Karte ausgestanzt oder heraus gebrochen worden war), als Adapter einge- setzt werden.

Mini-SIM (UICC)

Die Mini-SIM-Karte (Abkürzung 2FF für„Second Form Factor“) ist nur 25 mm x 15 mm groß und genau so dick wie die Full-Size-SIM.

SIM-Karten werden teilweise zwar noch im Scheckkartenformat ausgeliefert, die Mini- SIM ist dann aber schon vorgestanzt, so dass sie nur an Sollbruchstellen herausgebro- chen werden muss. Anfangs war bei den ausgelieferten Full-Size-SIM die Mini-SIM noch nicht vorgestanzt, deshalb gab es neben Stanzgeräten auch Anleitungen zum Selbstbau (ausschneiden mit Schablone und Schere). Um Material zu sparen, wird die SIM-Karte seit Mitte der 2010er-Jahre oft nur noch im UICC- Format in einer Karton- Schablone ausgeliefert. Micro-SIM (Mini-UICC)

Die Micro-SIM (Abkürzung 3FF für„Third Form Factor“) ist 52 % kleiner als die der Mini-SIM-Karte. Bei der Micro-SIM betragen die Außenlängen nur 15 mm * 12 mm. Die Dicke beträgt wie auch schon bei der Full-Size-SIM oder Mini-SIM 0,76 mm. Was die technischen Daten der Schaltung anbelangt, gibt es keine Unterschiede.

Mit einem speziellen Stanzgerät kann aus einer Full-Size-SIM oder Mini-SIM eine Micro-SIM gemacht werden.

Eines der ersten Geräte, das eine Micro-SIM-Karte verwendete, war das iPad im Jahr 2010, gefolgt vom Apple iPhone 4. Nokia setzt diesen Kartentyp ein, so beim Nokia N9 oder dem Nokia Lumia 800. Motorola setzt beim Motorola Droid Razr auf Micro -SIM- Karten. Viele weitere Hersteller sind dem Trend gefolgt und verwenden bei ihren Smartphones nun Micro-SIM-Karten.

Nano-SIM

Die Nano-SIM (kurz 4FF für„Fourth Form Factor“) ist mit

12,3 mm x 8,8 mm x 0,67 mm nochmals 40 % kleiner aber vor allem 12 % dünner als eine Micro-SIM und soll somit Platz in kompakten Geräten einsparen. Karten im Nano- SIM-Format bieten dieselbe Funktionalität wie größere Karten. Der Standard umfasst eine mechanische Abwärtskompatibilität, wodurch eine vereinfachte Verteilung mög- lich sein soll.

Apple wie Nokia wollten zunächst ihre Version als jeweils besser standardisieren las- sen. Die ETSI entschied sich im Juni 2012 schließlich für den Design -Vorschlag von Apple. Dieser ist kompatibel zu den bereits genutzten Micro-SIM-Karten. Am Markt eingeführt wurde die Nano-SIM-Karte im September 2012 mit dem iPhone 5.

Inzwischen bieten etliche moderne Smartphones einen Nano-SIM-Einschub.

Obwohl eine Umstanzung, wie bei der Micro-SIM beschrieben, zur Nano-SIM unter anderem als nicht möglich beschrieben, davor gewarnt oder gar nicht erwähnt wird, fin- den sich im World Wide Web zahlreiche Artikel mit Anleitungen[16], Zuschneide- Schablonen, Stanzgeräte und Videos.

Von Mobilfunk-Anbietem wird vor einer Umstanzung gewarnt, wobei meist eine ent- geltliche Neubestellung der SIM-Karte angeraten wird. embeddedSIM

Die embeddedSIM (eSIM) ersetzt die klassische physische SIM-Karte. Erste Geräte wie Samsungs Smartwatch Gear S2, Apple Watch Cellular (ab Series 3), neure Apple iPho- ne verwenden diese. Sie ist kleiner als SIM-Karten, direkt im Gerät verbaut und phy- sisch nicht auswechselbar. Für Hersteller kann in Zukunft die Aufnahmemechanik der SIM-Karte komplett entfallen. Die eSIM ist elektrisch kompatibel mit 2FF- und 3FF- Karten, sie verwendet das SON-8-Format und ist für M2M- An Wendungen (Machine to Machine-Anwendungen) konzipiert.

In Deutschland wird die eSIM von den Netzbetreibem Telekom, Vodafone und Tele- fönica Deutschland unterstützt und angeboten.

NFC-SIM

Für die Verwendung der mobilen Zahlfunktionen ist eine NFC-SIM notwendig. Diese verfügt über einen zweiten komplett getrennten und verschlüsselten Bereich (Secure Element), auf den nur die Bank Zugriff hat. Die Karte erhält dabei die Daten für die Bankfunktion aufgespielt, sodass sie beim Wechsel des Gerätes erhalten bleiben. Es ist auch möglich, mehrere Bankkarten auf einer NFC-SIM zu speichern. Äußerlich unter- scheiden sich die Karten nicht von solchen ohne NFC. Die Karten gibt es auch in den drei Größen mini, micro und nano.

Österreich

Das Bezahlsystem "Digitale Bankomatkarte" wurde in Österreich ab Juni 2015 in einem Feldversuch erprobt und seit Anfang 2016 von allen großen Banken und von den drei großen Mobilfunkanbietem, allerdings nur für Androidgeräte, angeboten. Der Umtausch der SIM beim Mobilfunkanbieter ist notwendig, bis jetzt werden Neu- kunden noch nicht automatisch mit NFC-SIMs ausgestattet. Danach kann die digitale Bankomatkarte bei der Hausbank bestellt werden.

Byte gibt nicht die Anzahl der auf der SIM speicherbaren Zeichen an, da z. B. pro die Ziffer der Rufnummer nur ein Halbbyte benutzt wird.

Man muss aber beachten, dass nicht alle Mobiltelefone die mögliche Anzahl Zeichen (für den Namen und Rufnummer) nutzen.

Der Erweiterungsspeicher kann frei von dem Betriebssystem des Mobiltelefons ver- wendet werden, was dazu führt, dass die dort hinterlegten Informationen von einem an- deren Mobiltelefon nicht oder falsch interpretiert werden. So wurde dieser Speicherbe- reich z. B. von einigen Geräten (z. B. Siemens A60) dazu benutzt um die Zeichenanzahl für den Namen für die ersten Einträge zu verlängern, bei anderen Geräten wurde dieser dazu benutzt um eine zweite Telefonnummer zu speichern.

Länderspezifika

Am 13. Februar 2009 stimmte der deutsche Bundesrat einer Verordnung des Bundes- ministeriums für Wirtschaft und Technologie zu, nach der zukünftig Notrufe (110 und 112) nicht mehr ohne SIM-Karte gewählt werden können. Da immer häufiger grundlos Notrufe von Mobiltelefonen ohne Karte gemacht worden waren, sollten nun nur noch durch SIM-Karten identifizierbare Kommunikationsteilnehmer diese Möglichkeit ha- ben.

Sicherheit

Neue SIM-Karten besitzen bessere Sicherheitsmerkmale als ältere SIM-Karten. Aus Si- cherheitsgründen sollten alle SIM-Karten mit einem Alter über zehn Jahre durch neue SIM-Karten ersetzt werden. DES- V erschlüsselung

Siehe auch:„SIM-Karten DES-Hack“ im Artikel Karsten Nohl

Auf der Black Hat 2013 beziehungsweise der OHM 2013 demonstrierte Karsten Nohl, dass viele Mobiltelefone noch SIM-Karten mit der bereits seit längerem als unsicher geltenden DES-Verschlüsselung nutzen. In Deutschland reagierten der IT- Branchen- verband Bitkom sowie die großen Telekommunikationsanbieter Deutsche

Telekom, Telefönica, E-Plus-Gruppe und Vodafone gelassen, da die unsichere DES- Verschlüsselung nicht mehr eingesetzt wird.

Schlüsseldiebstahl

Gestützt auf veröffentlichte Geheimdokumente des Whistleblowers Edward Snowden berichtete The Intercept im Februar 2015, dass die Nachrichtendienste National Securi- ty Agency und Government Communications Headquarters im Jahre 2010 Schlüssel von Gemalto, dem größten Hersteller von SIM-Karten, entwendet hatten.

Sie seien somit in der Lage, einen Großteil der weltweiten mobilen Kommunikation einschließlich Sprachnachrichten und Daten unerkannt abzuhören. In einem der Doku- mente wird die deutsche Firma Giesecke & Devrient als Angriffsziel genannt

USIM- Anwendung

Die USIM- Anwendung ermöglicht der Mobilstation die bessere Verschlüsselung der über das Mobilfunknetz übertragenen Gespräche, Mitteilungen und Daten. Die Mobil- station kann die Authentifizierung der Mobilstation beim Mobilfimkanbieter dank der USIM- An Wendung besser absichem. Aus Sicherheitsgründen sollte in allen Mobilsta- tionen SIM-Karten mit der USIM-Anwendung betrieben werden.

Mobilstationen, welche nicht die USIM-Anwendung unterstützen, sollten aus Sicher- heitsgründen durch neuere Geräte ersetzt werden.

28. Wireless Local Area Network (W-LAN)

Wireless Local Area Network [ waiolis lookl 'eopo 'netw3:k] (Wireless LAN bzw. W- LAN, meist WLAN; deutsch drahtloses lokales Netzwerk) bezeichnet ein lokales Funk- netz, wobei meist ein Standard der IEEE-802.11 -Familie gemeint ist. Für diese engere Bedeutung ist in manchen Ländern (z. B. USA, Großbritannien, Kanada, Niederlande, Spanien, Frankreich, Italien) weitläufig beziehungsweise auch synonym der Begriff Wi- Fi gebräuchlich. Verwendet wird der Begriff häufig auch irreführend als Synonym für WLAN-Hotspots bzw. kabellosen Intemetzugriff.

Im Gegensatz zum Wireless Personal Area Network (WPAN) haben WLANs größere Sendeleistungen und Reichweiten und bieten im Allgemeinen höhere Datenübertra- gungsraten. WLANs stellen Anpassungen der Schicht 1 und 2 des OSI- Referenzmo- dells dar, wohingegen in WPANs z. B. über eine im Netzwerkprotokoll vorgesehene Emulation der seriellen Schnittstelle und PPP beziehungsweise SLIP eine Netzverbin- dung aufgebaut wird. Bei WLAN wird heute meist das Modulationsverfahren OFDM verwendet.

Betriebsarten

WLANs können - je nach Hardwareausstattung und Bedürfnissen der Betreiber - in verschiedenen Modi betrieben werden:

Infrastruktur-Modus

Der Infrastruktur-Modus ähnelt im Aufbau dem Mobilfunknetz: Ein Wireless Access Point, oft in Form eines Routers, übernimmt die Koordination aller Clients und sendet in einstellbaren Intervallen (üblicherweise zehnmal pro Sekunde) kleine Datenpakete, sogenannte„Beacons“ (engl.„Leuchtfeuer“, vgl. dt.„Bake“), an alle Stationen im Emp- fangsbereich. Die Beacons enthalten u. a. folgende Informationen:

-Netzwerkname („Service Set Identifier“, SSID),

-Liste unterstützter Übertragungsraten

-Art der Verschlüsselung.

Dieses„Leuchtfeuer“ erleichtert den Verbindungsaufbau ganz erheblich, da die Clients lediglich den Netzwerknamen und optional einige Parameter für die Verschlüsselung kennen müssen. Gleichzeitig ermöglicht der ständige Versand der Beacon-Pakete die Überwachung der Empfangsqualität - auch dann, wenn keine Nutzdaten gesendet oder empfangen werden. Beacons werden immer mit der niedrigsten Übertragungsrate (1 MBit/s) gesendet, der erfolgreiche Empfang des„Leuchtfeuers“ garantiert also noch keine stabile Verbindung mit dem Netzwerk.

Die SSID-Übermittlung (Broadcasting) lässt sich in der Regel deaktivieren, auch wenn das den eigentlichen Standard verletzt. Dadurch wird der drahtlose Zugangspunkt selbst unsichtbar. Die Clients stellen in dieser Variante jedoch aktiv die Verbindung her, in- dem sie, falls keine Verbindung besteht, jederzeit aktiv nach allen gespeicherten Netz- werknamen„versteckter“ Netze suchen. Problematisch ist dabei, dass diese Informatio- nen leicht für einen Angriff auf die Endgeräte ausgenutzt werden können, indem durch den Angreifer die Anwesenheit des Access Point simuliert wird.

Da WLAN auf der Sicherungsschicht (Schicht 2 im OSI-Modell) dieselbe Adressierung wie Ethernet verwendet, kann über einen Wireless Access Point mit Ethemet-Anschluss leicht eine Verbindung zu kabelgebundenen Netzen (im WLAN- Jargon„Distribution System“, DS) hergestellt werden. Eine Ethemet-Netzwerkkarte kann folglich nicht un- terscheiden, ob sie mit einer anderen Ethemet-Netzwerkkarte oder (über einen Access Point) mit einer WLAN-Karte kommuniziert. Allerdings muss zwischen 802.11 (WLAN) und 802.3 (Ethernet) konvertiert werden.

Der Aufbau großer WLANs mit mehreren Basisstationen und unterbrechungsfreiem Wechsel der Clients zwischen den verschiedenen Basisstationen ist im Standard vorge- sehen. In der Praxis kommt es dabei allerdings zu Problemen:

-Die Frequenzbereiche der Basisstationen überlappen sich und fuhren zu Stö- rangen. -Da - anders als bei Mobilfunknetzen - die gesamte„Intelligenz“ im Client steckt, gibt es kein echtes Handover zwischen verschiedenen Basisstationen. Ein Client wird im Normalfall erst nach einer neuen Basisstation suchen, wenn der Kontakt zur vorherigen bereits abgebrochen ist. Eine Lösung für dieses Problem steckt in der Verlagerung der Kontrollfunktionen in die Basisstationen beziehungsweise das Netzwerk: Eine zentrale Instanz kann Frequenzen, Sendeleistung etc. besser steuern und z. B. auch einen Flandover initiieren. Da die Ba- sisstationen in einem solchen Szenario einen Teil ihrer Funktionalität verlieren und di- rekt mit der zentralen Instanz kommunizieren können müssen, wird an entsprechenden Geräteklassen (Lightweight Access Point) und Protokollen gearbeitet. Proprietäre Lö- sungen existieren bereits seit einigen Jahren, offene Standards (z. B. das Lightweight Access Point Protocol) sind dagegen immer noch in Arbeit. Diskussionen entzünden sich vor allem an der Frage, welches Gerät welche Funktionen übernehmen soll.

Ad-hoc-Modus

Im Ad-hoc-Modus ist keine Station besonders ausgezeichnet, sondern alle sind gleich- wertig. Ad-hoc-Netze lassen sich schnell und ohne großen Aufwand aufbauen, für die spontane Vernetzung weniger Endgeräte sind allerdings andere Techniken, wie Blue- tooth, eher gebräuchlich.

Die Voraussetzungen für den Ad-hoc-Modus sind dieselben wie für den Infrastruktur- Modus: Alle Stationen benutzen denselben Netzwerknamen („Service Set Identifier“, SSID) und optional dieselben Einstellungen für die Verschlüsselung. Da es in einem Ad-hoc-Netz keine zentrale Instanz (Access Point) gibt, muss deren koordinierende Funktion von den Endgeräten übernommen werden. Eine Weiterleitung von Datenpake- ten zwischen den Stationen ist nicht vorgesehen und in der Praxis auch nicht ohne Wei- teres möglich, denn im Ad-hoc-Modus werden keine Informationen ausgetauscht, die den einzelnen Stationen einen Überblick über das Netzwerk geben könnten. Aus diesen Gründen eignet sich der Ad-hoc-Modus nur für eine sehr geringe Anzahl von Stationen, die sich wegen der begrenzten Reichweite der Sender zudem physisch nahe beieinander befinden müssen. Ist das nicht der Fall, kann es Vorkommen, dass eine Station nicht mit allen anderen Stationen kommunizieren kann, da diese schlicht kein Signal mehr emp- fangen. Um dieses Problem zu beheben, können die teilnehmenden Stationen mit Routing- Fä- higkeiten ausgestattet werden, so dass sie in der Lage sind, Daten zwischen Geräten weiterzuleiten, die sich nicht in Sendereichweite zueinander befinden.

Erhebung und Austausch von Routing-Informationen ist Teil der Aufwertung eines Ad- hoc-Netzwerks zum mobilen Ad-hoc-Netzwerk: Softwarekomponenten auf jeder Stati- on sammeln Daten (z. B. zur„Sichtbarkeit“ anderer Stationen, Verbindungsqualität etc.), tauschen sie untereinander aus und treffen Entscheidungen für die Weiterleitung der Nutzdaten. Die Forschung in diesem Bereich ist noch nicht abgeschlossen und hat neben einer langen Liste von experimentellen Protokollen (AODV, OLSR, MIT Roof- Net, B.A.T.M.A.N. etc.) und Standardisierungsvorschlägen (Hybrid Wireless Mesh Protocol, 802.11s) auch einige kommerzielle Lösungen (z. B. Adaptive Wireless Path Protocol von Cisco) hervorgebracht. Siehe in diesem Zusammenhang auch: Freies Funknetz.

Wireless Distribution System (WDS) und Repeating

Zur Reichweitenerhöhung bestehender Funknetze beziehungsweise Verbindung kabel- gebundener Netze via Funk (Wireless Bridging) existieren verschiedene Methoden— > siehe Wireless Distribution System.

Reichweite und Antennen

Die zulässige äquivalente isotrope Strahlungsleistung (EIRP) von 100 mW (2,4 GHz) beziehungsweise 500 mW (5 GHz) handelsüblicher 802.11 -Endgeräte lässt 30 bis 100 Meter Reichweite auf freier Fläche erwarten. Einige WLAN-Geräte erlauben den An- schluss einer externen Antenne. Mit Richtantennen lassen sich bei Sichtkontakt im Freien mehrere Kilometer überbrücken. In geschlossenen Räumen ist die Reichweite stark von Hindernissen sowie Art und Form der Bebauung abhängig.

Leichtbauwände mindern die Reichweite durch Dämpfung und können - je nach ver- wendetem (Metall -)Trägerbau sowie Art der Unterfolie - ein großes Hindernis sein. Insbesondere Stein- und Betonaußenwände dämpfen, vor allem durch Feuchtigkeit be- dingt, stark - ebenso wie metallbedampfte Glasscheiben beziehungsweise Brandschutz- konstruktionen. Je höher die elektrische Leitfähigkeit des Materials, desto stärker ist die Dämpfung.

Oberflächen können aber auch als Reflektor wirken und damit die Reichweite verbes- sern.

WLAN nach IEEE 802.11h (maximal 54 Mbit/s brutto) arbeitet im 5-GHz-Band, in dem ein größerer Frequenzbereich (455 MHz Bandbreite) zur Verfügung steht und da- mit 19 nicht überlappende Frequenzen (in Deutschland) lizenzfrei nutzbar sind.

(Siehe dazu auch, für die USA: U-NII) Im Normalbetrieb sind in Gebäuden nach IEEE 802.11h 200 mW äquivalente isotrope Strahlungsleistung (EIRP) erlaubt. Jedoch nur ein kleiner Teil des Frequenzbereichs ist ohne weitere Anforderungen (TPC, Transmit- ter Power Control und DFS, Dynamic Frequency Selection) nutzbar. Im Freien ist eben- falls nur ein kleiner Frequenzbereich mit TPC und DFS erlaubt. In diesem sind auch höhere äquivalente isotrope Strahlungsleistungen bis 1 Watt EIRP gestattet. [32] TPC und DFS sollen sicherstellen, dass Satellitenverbindungen und Radargeräte nicht gestört werden. Als primäre Lizenznehmer sind diese gegenüber der Nutzung für WLAN privi- legiert.

Mit speziellen Richtfunkantennen lassen sich bei Sichtkontakt mehrere Kilometer über- brücken. Dabei werden teilweise Rekorde mit Verbindungen über bis zu hundert Kilo- meter aufgestellt, bei denen keine Sendeverstärker eingesetzt werden, sondern nur An- tennen mit hohem Gewinn. Allerdings funktioniert das nur bei quasi -optischer Sicht und möglichst freier erster Fresnelzone. Die zulässige äquivalente isotrope Strahlungs- leistung (EIRP) wird dabei aber meist deutlich überschritten.

Antennen bringen sowohl einen Sende- als auch einen Empfangsgewinn (Antennengewinn, angegeben in dBi), indem sie elektromagnetische Wellen bündeln. Daher muss statt der Sendeleistung die sogenannte äquivalente isotrope Strahlungslei- stung zur Beschränkung herangezogen werden. In Europa ist die äquivalente isotrope Strahlungsleistung von WLAN -Anlagen bei 2,4 GHz auf 100 mW(= 20 dBm) EIRP, bei 5,15-5,35 GHz über 5,25 GHz mit TPC und DFS auf 200 mW (= 23 dBm) EIRP, beziehungsweise bei 5,47-5,725 GHz mit TPC und DFS auf 1000 mW (= 30 dBm) EIRP begrenzt.

Zum EIRP siehe auch: Äquivalente isotrope Strahlungsleistung, Abschnitt Praktische Berechnung.

Sicherheit

Ohne Maßnahmen zur Erhöhung der Informationssicherheit sind drahtlose lokale Netzwerke Angriffen ausgesetzt, wie zum Beispiel Snarfing oder Man-In-The-Middle- Angriffen. Daher wird versucht, das mit entsprechenden Mitteln, insbesondere durch die Verwendung von Verschlüsselung und Kennwörtern (Authentifizierung) zu verhin- dern oder zumindest deutlich zu erschweren.

Verschlüsselung

Teil des WLAN-Standards IEEE 802.11 ist Wired Equivalent Privacy (WEP), ein Si- cherheitsstandard, der den RC4-Algorithmus enthält. Die darin enthaltene Verschlüsse- lung mit einem nur 40 Bit (64 Bit genannt) beziehungsweise 104 Bit (128 Bit genannt), bei einigen Herstellern auch 232 Bit (256 Bit genannt) langen statischen Schlüssel reicht jedoch nicht aus, das WLAN ausreichend zu sichern. Durch das Sammeln von Schlüsselpaaren sind Known-Plaintext-Angriffe möglich. Es gibt frei erhältliche Pro- gramme, die sogar ohne vollständigen Paketdurchlauf, einen schnellen Rechner voraus- gesetzt, das Passwort entschlüsseln können. Jeder Nutzer des Netzes kann den gesamten Verkehr zudem mitlesen. Die Kombination von RC4 und CRC wird als kryptografisch unsicher betrachtet.

Aus diesen Gründen sind technische Ergänzungen entwickelt worden, etwa WEPplus, Wi-Fi Protected Access (WPA) als Vorgriff und Teilmenge zu 802.1 li, Fast Packet Keying, Extensible Authentication Protocol (EAP), Kerberos oder High Security Solu- tion, die alle mehr oder weniger gut das Sicherheitsproblem von WLAN verkleinern Der Nachfolger von WEP ist der Sicherheitsstandard 802.1 li. Er bietet eine erhöhte Si- cherheit durch Advanced Encryption Standard (AES) (bei WPA2) und gilt zurzeit als nicht entschlüsselbar, solange keine trivialen Passwörter verwendet werden, die über eine Wörterbuch- oder gar Brute-force-Attacke geknackt werden können.

WPA2 ist das Äquivalent der Wi-Fi Alliance zu 802.1 li, das mit dem Verschlüsse- lungsalgorithmus AES (Advanced Encryption Standard mit Schlüssellängen von 256 Bit) arbeitet und in neueren Geräten meist unterstützt wird. Einige Geräte lassen sich durch Austausch der Firmware mit WPA2 -Unterstützung nachrüsten. Jedoch erfolgt hier die Verschlüsselung meist ohne Hardwarebeschleunigung, so dass der Zugewinn an Sicherheit durch eine starke Einbuße an Übertragungsrate erkauft wird.

Eine alternative Herangehensweise besteht darin, die gesamte Verschlüsselung auf die IP-Ebene zu verlagern. Dabei wird der Datenverkehr beispielsweise durch die Verwen- dung von IPsec oder durch einen VPN-Tunnel geschützt. Besonders in freien Funknet- zen werden so die Inkompatibilitäten verschiedener Hardware umgangen, eine zentrale Benutzerverwaltung vermieden und der offene Charakter des Netzes gewahrt.

Zur rechtlichen Situation siehe weiter unten.

Beim sogenannten„WarWalking“ (oder beim Abfahren ganzer Gegenden mit dem Au- to Wardriving genannt) werden mit einem WLAN-fähigen Notebook oder PDA offene WLANs gesucht. Diese können mit Kreide markiert werden (WarChalking). Das Ziel dabei ist, Sicherheitslücken aufzudecken und dem Betreiber zu melden und die Verbrei- tung von WLAN zu untersuchen, oder diese zum eigenen Vorteil (kostenlos und unter fremdem Namen surfen) auszunutzen.

Authentifizierung

Extensible Authentication Protocol ist ein Protokoll, um Clients zu authentifizieren. Es kann zur Nutzerverwaltung auf RADIUS-Server zurückgreifen. EAP wird hauptsäch- lich innerhalb von WPA für größere WLAN -Installationen eingesetzt. Eine Authentifizierung ist auch über die MAC-Adresse der drahtlosen Netzwerkadapter möglich. Die MAC-Adresse ist eine Hardware -Kennung, anhand deren sich jeder ange- schlossene Netzwerkadapter identifizieren lässt. Die meisten Access Points bezie- hungsweise Router bieten die Möglichkeit, den Zugriff nur für bestimmte MAC- Adressen zu ermöglichen. Allen nicht zugelassenen MAC -Adressen wird dann keine IP-Adresse zugewiesen, beziehungsweise der Zugriff auf den Access Point ist blockiert. Eine alleinige Sicherung über MAC-Adressen-Filterung ist jedoch nicht sicher, da sich solche Adressen problemlos einstellen lassen. Gültige MAC -Adressen können z. B. durch das Mitlauschen des Datenverkehrs anderer Teilnehmer gefunden werden. Aber auch Verschlüsselungen lassen sich auf diese Weise knacken.

Grundlegende Sicherheitsmaßnahmen

Dazu gehören einige grundlegende Einstellungen am Router beziehungsweise Access Point:

-Aktivierung der Verschlüsselung mit einer sicheren Verschlüsselungsmethode, d. h. mindestens WPA, besser WPA2; dabei spezifische Hinweise zur Sicher- heit der gewählten Verschlüsselungsmethode im jeweiligen Artikel beachten

-Vergabe eines sicheren Netzwerkschlüssels

-Ersetzen der werkseitig voreingestellten Router- beziehungsweise Access- Point- Passwörter, da diese z. B. bei Arcadyan (einige Easybox- und Speed- port -Modelle) an- hand der BSSID errechnet werden können [33] [34]

-Deaktivieren von Wi-Fi Protected Setup, wenn die Funktion nicht (mehr) benö- tigt wird

-Änderung des werkseitig voreingestellten SSID-Namens, so dass keine Rück- Schlüsse auf verwendete Hardware, Einsatzzweck oder Einsatzort möglich sind (minimaler Si- cherheitsgewinn, da anhand der BSSID meist auf die Hard- wäre Rückschlüsse gezogen werden können) -Deaktivierung der Fernkonfiguration des Routers, soweit vorhanden (insbe- sondere bei privaten Haushalten)

-Konfiguration des Access Point nach Möglichkeit nur über kabelgebundene Verbin- dungen vornehmen beziehungsweise Konfiguration per WLAN deaktivieren

-Ausschalten von WLAN-Geräten, solange sie nicht genutzt werden (Zeitma- nage- ment)

-regelmäßige Firmware-Aktualisierungen des Access Point, um sicherheitsrele- vante Verbesserungen zu erhalten

-Trennung des Access Point vom restlichen (kabelgebundenen) Netzwerkteil mit Hilfe von VLANs und gleichzeitiger Einsatz einer Firewall zwischen den Netzwerkteilen

Gesellschaftliche Bedeutung

Die starke Verbreitung von Drahtlosnetzwerken in den letzten Jahren unterstreicht den Trend zu mehr Mobilität und flexibleren Arbeitsbedingungen. Bereits 2005 wurden in der Europäischen Union mehr Notebooks als Desktop-Rechner verkauft, die meisten davon mit eingebautem WLAN-Chip. Öffentliche und kommerzielle WLAN-Access- Points mit Intemetanbindung, sogenannte„Hot Spots“, ermöglichen an vielen Orten den Zugriff auf das weltweite Datennetz. Deren gesellschaftliche Bedeutung zeigt bei- spielsweise die Initiative Wifi4EU, mit der die EU in ihren Mitgliedsstaaten die Bereit- stellung kostenloser WLAN -Netze in öffentlichen Einrichtungen subventioniert.

Bei privaten Nutzern finden sich ohnehin nahezu flächendeckend DSL- Zugangsgeräte mit eingebautem Access Point, die die Telekommunikationsanbieter oft verbilligt zu- sammen mit dem Internet-Anschluss anbieten.

Weitere Anwendungen

WLAN kann auch als Plattform zur Lokalisierung in Städten und Gebäuden verwendet werden. Seit Anfang 2008 wird dazu vom Fraunhofer-Institut für Integrierte Schaltun- gen auf einer Fläche von 25 Quadratkilometern in Nürnberg eine Testumgebung betrie- ben. Nach einer ersten Betriebsphase soll das System auf weitere deutsche und europäi- sche Städte wie zum Beispiel Berlin, München, Frankfurt, London, Paris und Mailand ausgedehnt werden.

Google und Apple nutzen die Daten von WLANs, um Nutzer zu lokalisieren. Damit bieten sie eine Alternative zur Lokalisierung per GPS.

Es wird intensiv geforscht, inwieweit WLAN auch im öffentlichen Straßenverkehr ge- nutzt werden kann, um die Verkehrssicherheit zu erhöhen.

Siehe auch: WLAN -basierte Ortung

Rechtliche Lage in Deutschland

Umstritten war die Frage, inwieweit der Anschlussinhaber eines WLAN für Rechtsver- letzungen Dritter haftet, die unter der IP-Adresse des Anschlussinhabers begangen wer- den In diesem Zusammenhang steht auch die Rechtsfrage, welche Schutzmaßnahmen ein Anschlussinhaber überhaupt zu ergreifen hat und wo gegebenenfalls zumutbare Schutzmaßnahmen (sogenannte„Prüfungs- und Überwachungspflichten“) enden.

Das Hanseatische Oberlandesgericht entschied, dass ein sorgeberechtigter Eltemteil als Störer auch für Urheberrechtsverletzungen haftet, die durch seine Kinder begangen wurden. Den Eltern sei es zumutbar, technische Maßnahmen zu ergreifen, um die Nut- zung illegaler Tauschbörsen zu verhindern (Beschl. v. 11. Oktober 2006 - 5 W 152/06). Auch das Oberlandesgericht Köln sah die Haftung für Urheberrechtsverletzungen nicht nur für eine GmbH als Anschlussinhaberin als gegeben an, sondern verurteilte auch den Geschäftsführer der GmbH zur persönlichen Haftung aus dem Gesichtspunkt der Stö- rerhaftung (Beschl. v. 8. Mai 2007 - 6 U 244/06).

Die gegenteilige Ansicht vertrat das Oberlandesgericht Frankfurt am Main. Die Richter entschieden, dass der Inhaber eines Intemetanschlusses grundsätzlich nicht als Störer für die unberechtigte Nutzung einer WLAN-Verbindung durch unberechtigte Dritte haf- tet, die mit ihm in keinerlei Verbindung stehen. Nach Ansicht des Landgerichtes Mün- chen I besteht auch keine Haftung eines Radiosenders für die durch einen Volontär be- gangenen Rechtsverletzungen, da kein Unternehmen grenzenlose Mitarbeiterüberwa- chungspflichten einhalten könne (Urteil v. 4. Oktober 2007 - 7 0 2827/07).

Diese uneinheitliche Rechtsprechung führte dazu, dass ein solcher Fall beim Bundesge- richtshof anhängig war. Der u. a. für das Urheberrecht zuständige I. Zivilsenat verkün- dete am 12. Mai 2010 eine grundlegende Entscheidung zu den Haftungsfragen. Privat- personen können demnach auf Unterlassung, nicht dagegen auf Schadensersatz in An- spruch genommen werden, wenn ihr nicht ausreichend gesicherter WLAN -Anschluss von unberechtigten Dritten für Urheberrechtsverletzungen im Internet genutzt wird. Ei- ne Entscheidung darüber, wie die Rechtslage bei WLANs ist, die der Anbieter bewusst an die Öffentlichkeit richtet, steht bislang noch aus.

Daneben stellt sich die Frage, ob sich derjenige, der unberechtigt ein offenes, fremdes WLAN nutzt, strafbar macht. Diese unberechtigte Nutzung wird teils in Anspielung auf „Schwarzfahren“ als„Schwarzsurfen“ bezeichnet. Das Amtsgericht Wuppertal hat 2007 entschieden, dass sich ein„Schwarzsurfer“ wegen eines Verstoßes gegen §§ 89, S. 1, 148 I 1 TKG und §§ 44, 43 II Nr. 3 BDSG strafbar macht. Nach einer Entscheidung desselben Amtsgerichts von 2010 soll„Schwarzsurfen“ nicht mehr unter Strafe ste- hen. [46] Das Landgericht Wuppertal bestätigte diese Entscheidung. Schwarzsurfen sei unter keinem rechtlichen Gesichtspunkt strafbar.

Mit der am 21. Juli 2016 erlassenen Änderung des Telemediengesetzes wurde durch ei- ne Ergänzung von § 8 Abs. 3 klargestellt, dass auch Zugangsanbieter, die Nutzern einen Internetzugang über ein drahtloses lokales Netzwerk zur Verfügung stellen, haftungs- privilegiert sind. Damit ist geregelt, dass WLAN -Betreiber unter das sogenannte Provi- derprivileg fallen. Die eigentliche Abschaffung der Störerhaftung schaffte es hingegen zunächst nicht in den Gesetzestext. Stattdessen fand sich in der Begründung des Geset- zes lediglich der Hinweis, dass der Gesetzgeber es gern sähe, dass WLAN -Betreiber nicht mehr für Rechtsverstöße Dritter abgemahnt und auf Unterlassung in Anspruch ge- nommen werden können. Echte Rechtssicherheit für offene Funknetze wurde damit gerade noch nicht erreicht. Im Gegensatz zum eigentlichen Gesetzestext ist die Begründung nicht bindend.

Gerichte können sie zur Auslegung heranziehen, müssen die dort dargelegte Sichtweise aber nicht zwingend teilen. Daher erwirkte die TMG-Novelle des Jahres 2016 noch kei- nen Durchbruch bei der Anpassung der Störerhaftung. Dazu hätte der Gesetzgeber die Betreiber im Gesetz ausdrücklich insbesondere von Unterlassungsansprüchen freisteilen müssen.

Dazu kam es erst durch eine weitere Gesetzesänderung Mitte 2017. Hiernach stellt die Neufassung von § 7 Abs. 4 S. 3 TMG klar, dass die Zugangsanbieter Dritten nicht mehr für das Verhalten der WLAN-Nutzer haften. Trotz dieser Erneuerung der Gesetzeslage verbleiben für den Betrieb öffentlicher WL AN -Netze jedoch noch eine Reihe rechtli- cher Anforderungen, etwa solche des Datenschutzes.

Zur aktuellen Rechtslage siehe Störerhaftung. Diskussion gesundheitlicher Wirkungen Die von WLAN-Geräten benutzten Funkfrequenzen liegen um 2,4 GHz beziehungswei- se 5,4 GHz, also im Mikrowellenbereich. WLAN wird daher im Zusammenhang mit möglichen gesundheitlichen Auswirkungen im Rahmen der elektromagnetischen Um- weltverträglichkeit diskutiert.

Nach mehreren Studien, u. a. des Bundesamts für Strahlenschutz (BfS), gibt es inner- halb der gesetzlichen Expositionsgrenzwerte nach dem aktuellen Stand der Wissen- schaft keine Hinweise, dass diese hochfrequenten elektromagnetischen Felder gesund- heitliche Risiken darstellen.

Die einzige gesicherte biologische Auswirkung ist die thermische Erwärmung. Der zu- gehörige Prozess heißt dielektrische Erwärmung. Um Schäden durch thermische Er- wärmung zu vermeiden, wurde ein Grenzwert für die spezifische Absorptionsrate defi- niert. Im normalen Betrieb wird dieser Grenzwert bei körperfemem Betrieb weit unter- schritten. Lediglich Laptopnutzer kommen nahe an die Grenzwerte, wenn sie ihr Gerät auf ihrem Oberschenkel aufgelegt haben. Unabhängig von den bisherigen Erkenntnissen empfiehlt das Bundesamt für Strahlen- schutz (BfS) generell, die persönliche Strahlenbelastung zu minimieren, um mögliche, aber bisher nicht erkannte gesundheitliche Risiken gering zu halten.

Es gibt vereinzelt Berichte von Personen, die über verschiedene Beschwerden klagen und diese selbst auf WLANs zurückführen. Verschiedene Untersuchungen mit elektro- sensiblen Menschen konnten aber keinen Zusammenhang zwischen den Beschwerden und elektromagnetischer Strahlung feststellen.

29. Wi-Fi

Wi-Fi (englisch [ wai , fai ]) bezeichnet sowohl ein Firmenkonsortium, das Geräte mit Funkschnittstellen zertifiziert, als auch den zugehörigen Markenbegriff.

Wi-Fi ist ein für Vermarktungszwecke erfundener Kunstbegriff, der in Analogie zu Hi- Fi gebildet wurde. Ob es wie dieser eine Abkürzung darstellt, wird bezweifelt; das Wi steht sicher für Wireless.

Oft wird Wi-Fi als Synonym für WLAN benutzt. Streng genommen sind WLAN und Wi-Fi jedoch nicht dasselbe: WLAN bezeichnet das Funknetzwerk, Wi-Fi hingegen die Zertifizierung durch die WiFi-Alliance anhand des IEEE-802.11 -Standards - alle Wi-Fi-zertifizierten Produkte sind somit 802.11 -konform.

Wi-Fi Alliance

1999 wurde die Organisation ursprünglich unter dem Namen Wireless Ethernet Compa- tibility Alliance (WECA) gegründete. 2002 benannte sich die WECA um in die Wi-Fi Alliance.

Die Aufgabe der Wi-Fi-Alliance ist, die Produkte verschiedener Hersteller auf der Basis des IEEE-802.11 -Standards zu zertifizieren und so den Betrieb mit verschiedenen Wireless-Geräten zu gewährleisten (Interoperabilität). Hintergrund war, dass in vielen Produkten der Standard nicht vollständig implementiert bzw. durch proprietäre Erweite- rangen aufgeweicht wurde. Dadurch ergaben sich häufig Inkompatibilitäten zwischen Produkten verschiedener Hersteller.

Die Wi-Fi-Alliance testet entsprechende Komponenten nach eigenen Richtlinien. Pro- dukte, die die Prüfung bestehen, erhalten das Wi-Fi-Zertifikat und dürfen damit das Lo- go "Wi-Fi" tragen. Allerdings werden lediglich die Produkte der Wi-Fi- Mitglieder ge- testet. Die Mitglieder müssen zusätzlich zur Mitgliedsgebühr für jede geprüfte Kompo- nente eine Gebühr entrichten. Ein fehlendes Wi-Fi-Logo stellt demzufolge nicht zwin- gend eine Abweichung vom Standard dar.

Das Konsortium gab am 31. Oktober 2002 bekannt, mit Wi-Fi Protected Access (WPA) eine Teilmenge des damals zukünftigen IEEE-Standards 802.1 li als neue Verschlüsse- lungstechnik zu etablieren, um noch vor der Verabschiedung des neuen Standards das als unsicher geltende Verschlüsselungsverfahren WEP abzulösen.

Nach der Verabschiedung von 802.1 li prägte die Wi-Fi analog dazu den Begriff WPA2.

Die Wi-Fi-Alliance umfasst über 300 Unternehmen als Mitglieder. Anbei eine Auswahl der Mitglieder.

30. Bluetooth

Bluetooth ['blu:tu:0] ist ein in den 1990er Jahren durch die Bluetooth Special Interest Group (SIG) entwickelter Industriestandard gemäß IEEE 802.15.1 für die Datenüber- tragung zwischen Geräten über kurze Distanz per Funktechnik (WPAN). Dabei sind verbindungslose sowie verbindungsbehaftete Übertragungen von Punkt zu Punkt und Ad-hoc- oder Piconetze möglich. Der Name„Bluetooth“ leitet sich vom dänischen Kö- nig Harald Blauzahn (englisch Harald Bluetooth) ab, der verfeindete Teile von Norwe- gen und Dänemark vereinte. Das Logo zeigt ein Monogramm der altnordischen Runen * und K

Die Funkverfahren für Bluetooth wurden ursprünglich in wesentlichen Teilen durch den niederländischen Professor Jaap Haartsen und den Schweden Sven Mattisson für Ericsson entwickelt. Andere Teile wurden vor allem von Nokia und Intel ergänzt. Blue- tooth bildet eine Schnittstelle, über die sowohl mobile Kleingeräte wie Mobiltelefone und PDAs als auch Computer und Peripheriegeräte miteinander kommunizieren kön- nen. Hauptzweck von Bluetooth ist das Ersetzen von Kabelverbindungen zwischen Ge- räten.

Technischer Hintergrund

Geräte nach den Standards der Bluetooth SIG senden als Short Range Devices (SRD) in einem lizenzfreien ISM-Band (Industrial, Scientific and Medical Band) zwischen 2,402 GHz und 2,480 GHz. Sie dürfen weltweit zulassungsfrei betrieben werden. Störungen können aber zum Beispiel durch WLANs, Schnurlostelefone (DECT-Telefone in Euro- pa haben ein anderes Frequenzband) oder Mikrowellenherde verursacht werden, die im selben Frequenzband arbeiten.

Um Robustheit gegenüber Störungen zu erreichen, wird ein Frequenzsprungverfahren (frequency hopping) eingesetzt, bei dem das Frequenzband in 79 Kanäle im 1-MHz- Abstand eingeteilt wird, die bis zu 1600-mal in der Sekunde gewechselt werden.

Es gibt jedoch auch Pakettypen, bei denen die Frequenz nicht so oft gewechselt wird (Multislot-Pakete). Am unteren und oberen Ende gibt es jeweils ein Frequenzband als Sicherheitsband (engl.:„guard band“) zu benachbarten Frequenzbereichen.

Theoretisch kann eine Datenübertragungsrate von 706,25 kbit/s beim Empfang bei gleichzeitigen 57,6 kbit/s beim Senden erreicht werden (asymmetrische Datenübertra- gung)·

Ab der Version 2.0 + EDR können Daten mit EDR (Enhanced Data Rate) maximal et- wa dreimal so schnell übertragen werden, also mit rund 2,1 Mbit/s. Bereits ab Version 1.1 kann ein Bluetooth-Gerät gleichzeitig bis zu sieben Verbindungen aufrechterhalten, wobei sich die beteiligten Geräte die verfügbare Bandbreite teilen müssen (Shared Me- dium). Bluetooth unterstützt die Übertragung von Sprache und Daten. Allerdings können die meisten Geräte während der notwendigerweise synchronen Übertragung von Sprache lediglich drei Teilnehmer in einem Piconet verwalten.

Eine Verschlüsselung der übertragenen Daten ist ebenfalls möglich.

Klassen und Reichweite

Die tatsächlich erzielbare Reichweite hängt neben der Sendeleistung von einer Vielzahl von Parametern ab. Hierzu zählen beispielsweise die Empfindlichkeit eines Empfängers und die Bauformen der auf Funkkommunikationsstrecken eingesetzten Sende- und Empfangsantennen. Auch die Eigenschaften der Umgebung können die Reichweite be- einflussen, beispielsweise Mauern als Hindernisse innerhalb der Funkkommunikations- strecken. Auch die Typen der Datenpakete können wegen Unterschieden in Länge und Sicherungsmechanismen Einfluss auf die erzielbare Reichweite haben.

Um höhere Übertragungsraten über das weltweit verfügbare 2,45-GHz-ISM- Frequenz- band zu ermöglichen, plant die Bluetooth SIG die Alternate MAC/PHY- Bluetooth- Erweiterung; hierbei wird Bluetooth um die PHY- und MAC-Schicht der IEEE-802.11- Spezifikationen (WLAN-Standards) erweitert.

Abhör- und Eindringsicherheit

Als abhörsicher oder sicher gegen unbefugtes Eindringen gelten Bluetooth- Übertra- gungen nur dann, wenn sie als Verbindung mit mehrstufiger dynamischer Schlüsselver- gabe betrieben werden. Bei statischer Schlüsselvergabe ist die Sicherheit eingeschränkt. Bei Übertragung des Schlüssels ist genau dieser Teil der Kommunikation besonders ge- fährdet, da erst der erfolgreiche Schlüsselaustausch eine Verbindung schützt.

Bluetooth gilt nur dann nicht mehr als sicher, wenn der PIN-Code zu kurz gewählt ist (etwa vier Dezimalziffem oder weniger). Die israelischen Forscher A. Wool und Y. Shaked beschrieben in ihrem Artikel vom Frühjahr 2005 ein Verfahren, mit dem Lauscher eine vorhandene, abhörsichere Verbindung unterbrechen und unter Umstän- den in eine neue Verbindung einbrechen können. Dieses Daten-Phishing beruht darauf, eine bestehende Verbindung durch entsprechende Störsignale zu unterbrechen und die Teilnehmer dazu zu bewegen, erneut eine authentifizierte Verbindung aufzubauen.

Dabei müssen die Angegriffenen erneut ihre PIN bei den verwendeten Geräten einge- ben. Die daraufhin stattfindende Authentifizierung mit Neuaushandlung des Verbin- dungsschlüssels kann dann mit einfach erhältlicher Spezialhardware abgehört und bei schlecht gewählter (weil zum Beispiel achtstellig- numerischer) PIN durch Ausprobie- ren geknackt werden. Dieser Brute-Force-Angriff kann durch FPGA-Boards weiter be- schleunigt werden. Dies ist kein rein akademischer Angriff, und zum Beweis existiert ein frei zugängliches Programm namens BTCrack. Der Angreifer befindet sich nach er- folgreichem Angriff im Besitz des geheimen Verbindungsschlüssels und kann beliebige Verbindungen zu den angegriffenen Geräten aufbauen. Jedoch muss der Angreifer die Bluetooth-Adresse eines verbundenen Bluetooth-Moduls kennen. Dies kann, entgegen weitläufigen Meinungen, nicht durch den„Unsichtbarkeitsmodus“ unterbunden werden.

Dieser Angriff ist dann möglich, wenn der Angreifer die Kommunikation während des Pairing-Prozesses abhört, der Angegriffene eine Neu-Authentifizierung vomimmt und er eine zu kurze PIN verwendet. Für Geräte, die die Schlüssel permanent speichern, be- steht demnach keine Gefahr, da nach Verbindungsstörungen oder manuellem erneuten Verbindungsaufbau keine erneute PIN -Authentifizierung ausgelöst wird, sondern auf den auf beiden Geräten gespeicherten Schlüssel zurückgegriffen wird. Als Schutz vor solchen Angriffen empfehlen die Autoren daher, Gegenstellen möglichst selten mit PIN-Eingabe anzumelden. Sicherer sei es, einmal erkannte Gegenstellen dau- erhaft in den jeweiligen Authentifizierungslisten zu speichern und eine Reauthentifizie- rung per PIN zu deaktivieren. Außerdem sollten Benutzer PINs mit deutlich mehr als acht Zeichen Länge verwenden, falls die verwendete Software dies gestattet. Das Blue- tooth-Protokoll sieht bis zu 16 beliebige Zeichen (128 Bit) vor. Darüber hinaus sollte eine unerwartete Aufforderung zur erneuten Authentifizierung hellhörig machen und zur Vorsicht mahnen.

Fehlerbehandlung

Bluetooth kennt bis zur Version 2.0 zwei elementare Arten der Fehlerbehandlung (sofern verwendet):

1. 1/3- und 2/3-FEC-Blockcodierung; ermöglicht Fehlerkorrektur beim Empfänger

2. ARQ (Automatic Repeat Request), ermöglicht Fehlererkennung beim Empfänger. Bei Fehlern wird das entsprechende Paket neu angefordert.

Systemarchitektur

Scattemet (Master = rot, Slave = grün, geparkt = blau)

Ein Bluetooth-Netzwerk (Piconet) besteht aus bis zu acht aktiven Teilnehmern, welche über eine 3-Bit-Adresse angesprochen werden können. Alle nicht aktiven Geräte kön- nen im Parkmodus die Synchronisation halten und auf Anfrage im Netz aktiviert wer- den. Für den Parkmodus gibt es eine 8-Bit-Adresse, welche 255 Teilnehmer („slaves“) ansprechen kann. Darüber hinaus kann über die 48 -Bit- Geräteadresse die Anzahl der passiven Teilnehmer nochmal erhöht werden.

Der„Master“ steuert die Kommunikation und vergibt Sende -Zeiteinheiten (engl „slots“) an die„Slaves“ (Zeitmultiplexverfahren). Ein Bluetooth-Gerät kann in mehre- ren Piconetzen angemeldet sein, allerdings nur in einem Netz als Master fungieren. Bis zu zehn Piconetze bilden ein Scattemet (von to scatter = ausstreuen), wobei die Teil- nehmer untereinander in Kontakt treten können. Jedes Piconet wird durch eine unter- schiedliche Frequency-Hopping-Folge identifiziert. Die Datenrate leidet in diesem Scat- temet jedoch meist erheblich.

Solche selbstorganisierende Funknetzwerke - Scattemet - werden proprietär implemen- tiert, bis heute ist keine allgemeine Lösung standardisiert. Das ist dadurch begründet, dass kein Algorithmus definiert werden kann, der allen Anforderungen an ein Scattemet gleichzeitig gerecht wird und hinreichend schlank und damit schnell bleibt.

Bluetooth-Basisband

Es werden zwei unterschiedliche physische Datenkanäle zur Verfügung gestellt. Die synchrone Datenübertragung ist zur Übertragung von Sprachdaten, mit einer Datenrate von 64 kbit/s gedacht. Dieses Verfahren heißt leitungs vermittelte oder synchrone Ver- bindung (Synchronous Connection-Oriented - SCO). Die andere Übertragungsform ist die Paketvermittlung oder asynchrone Verbindung (Asynchronous Connectionless - ACL), die ein speicherndes Verhalten des Übertragungsgerätes voraussetzt, wie bei der Internet-Technik.

Alles außer Sprache wird über ACL übertragen, neben allen Arten von Daten insbeson- dere auch Musik. Das Bluetooth-Protokoll unterstützt einen asymmetrischen Datenka- nal mit Datenraten in der Version 1.2 von maximal 732,2 kbit/s in eine Richtung und57,6 kbit/s in die Gegenrichtung, oder eine symmetrische Datenverbindung mit 433,9 kbit/s in beide Richtungen. In der EDR-Version sind höhere Datenraten erzielbar.

Bis zur Version 1.2 gibt es für die SCO-Übertragung nur HV1 -, HV2- und HV3-Pakete mit guter Fehlerkorrektur (HV 1) bis zu keiner (HV3). Diese Pakete enthalten Audioda- ten für 1,25 ms, 2· 1 ,25 ms oder 3 1,25 ms und werden dementsprechend alle 1,25 ms, 2· 1,25 ms und 3 · 1,25 ms gesendet. HV1 kann benutzt werden, wenn keine anderen Da- ten gesendet werden müssen. Allerdings hat diese Betriebsart den höchsten Stromver- brauch, weswegen fast alle Geräte HV3 -Pakete nutzen. Dies hat den Vorteil, dass man nur ein Drittel der Bandbreite für Audio benötigt und den Rest der Bandbreite für ACL- Verbindungen zum selben oder zu anderen Geräten zur Verfügung stellen kann. Mit der Version 1.2 wurde ein erweiterter synchroner Übertragungsmodus (enhanced SCO, eSCO) eingeführt. Dazu wurden neue Pakettypen und eine flexiblere Einteilung der Übertragungsperiode eingeführt. Ebenso ermöglicht dies, andere Audio -Formate zu übertragen wie z. B. der SBC-Codec, der auch in der HFP-Version eingeführt werden soll.

Werden gerade keine synchronen Datenpakete versandt, kann Bluetooth die asynchrone Übertragung anbieten. Hierüber werden alle Dienste, sowohl das Versenden von Nutz- datenpaketen als auch die Übermittlung von Steuerinformationen, zwischen zwei Blue- tooth-Stationen abgewickelt.

Bluetooth-Datenpakete bestehen aus einem 72-Bit-Zugriffscode, einem 54-Bit- Header sowie einem variablen Nutzdatenfeld von 0 Bit bis 2745 Bit (Pakettyp DH5) Länge. Für Bluetooth 2.0 °+ EDR sind bis zu 8168 Bit Nutzdaten pro Paket (3-DH5) möglich.

V erbindungsaufbau

Der Aufbau einer Verbindung erfolgt immer unter der Protokollarchitektur nach Blue- tooth V2.1 usw. (Neu ist ab Standard Bluetooth V3.0 und mit dem Protokoll Bluetooth V4.0 Low Energy ein verbindungsloser Betrieb in Sende- und Empfangsrichtung mög- lich). Eine Verbindung kann von einem beliebigen Gerät ausgehen, das sich dadurch zum„Master“ über die antwortenden„Slaves“ erhebt.

Sobald Bluetooth-Geräte in Betrieb gesetzt werden, identifizieren sich die einzelnen Bluetooth-Controller innerhalb von zwei Sekunden über eine individuelle und unver- wechselbare 48 bit lange MAC -Adresse. Im Bereitschafts-Modus lauschen unverbun- dene Geräte in Abständen von bis zu 2,56 Sekunden nach Nachrichten (Scan Modus) und kontrollieren dabei 32 Hop-Frequenzen. Der Kontakt zu den Slaves wird durch eine Inquiry-Nachricht (von englisch inquiry = Erkundigung) und danach durch eine Page- Message (von to page (engl.) = (per Lautsprecher) ausrufen, message (engl.) = Nach- richt) hergestellt, falls die Hardware-Adresse der Geräte unbekannt ist. Bei bekannter Adresse fällt der erste Schritt weg. Im Page- Zustand sendet der Master 16 identische Page-Telegramme auf 16 unterschiedlichen Hopping-Frequenzen, die für die Slaves be- stimmt sind. Danach befinden sich die Stationen im Status verbunden. Durchschnittlich wird eine Verbindungsaufnahme innerhalb des halben Scanintervalls, z. B. 2,56/2 Se- kunden (1,28 Sekunden), erreicht.

Findet der Master keinen Slave innerhalb einer eingestellten Zeit, so werden auf weite- ren 16 Hopping-Frequenzen Page-Telegramme gesendet. Diese Gruppierung soll bei bekannter„Slave Clock“ einen zügigen Verbindungsaufbau gewährleisten. Beim adap- tiven Hopping werden die Frequenzen ausgelassen, die bereits durch andere Master be- legt sind.

Seit 2005 kann zum Verbindungsaufbau zweier Bluetooth-Geräte optional NFC genutzt werden. Dieses zusätzliche RF-Protokoll unterstützt Bluetooth insbesondere beim erst- maligen Pairing von Bluetooth-OBEX.

Bluetooth-Protokollarchitektur

Die Bluetooth-Spezifikation wurde von der Bluetooth Special Interest Group (SIG) entwickelt. Diese beinhaltet Protokolle in einer hierarchischen Ordnung (Protokollstapel, engl protocol stack), mit denen interaktive Dienste und Anwendungen möglich werden, die über mobile Funkverbindungen kommunizieren.

Diese werden mit Hilfe von Funkmodulen hergestellt und sind verbindungslos oder verbindungsorientiert. Die Bluetooth Special Interest Group (SIG) hat zudem auch ver- schiedene Einsatzmodelle der Bluetooth -Technik entworfen. Die Spezifikation beinhal- tet eine Beschreibung der Protokolle, mit denen diese Einsatzmodelle implementiert werden können. Spezielle Zusammenstellungen nach diesen Modellen werden mit den Profilen benutzt.

Mit Bluetooth Low Energy wird kein Energiesparmodus bezeichnet, sondern ein spezi- eller Protokollstapel, der sich vom zuvor bekannten Protokollstapel unterscheidet, die- sen nicht ersetzt, aber neue Möglichkeiten für geringen Energieverbrauch eröffnet. Energie sparmodi

Wenn keine Daten zu übertragen sind, kann eine Verbindung zwischen einem Master und einem Slave in einen Energiesparmodus versetzt werden.

Es gibt drei Energiesparmodi:

-Der HOLD-Modus wird zur asynchronen Abwesenheit eingesetzt. Zum Bei- spiel kann ein Slave mitteilen, dass er ab einem gewissen Zeitpunkt für 200 ms nicht zuhört. Der Master adressiert dann den Slave für die angegebene Zeit nicht, und der Slave hört dann auch nicht auf Master-Pakete. Beide Geräte können dann die Zeit für andere Aktivitäten nutzen (scanning, scatter- net etc.).

-Der SNIFF-Modus (von to sniff (engl.) = schnüffeln) wird zur reduzierten perio- dischen Aktivität eingesetzt. Es kann z. B. ein Slave oder Master mitteilen, dass er nur noch alle 500 ms für einige Zeitfenster ("slots") zuhört. Der SNIFF- Modus wird bei fast allen Geräten, die Energieverbrauch senken sollen, einge- setzt.

-Der PARK-Modus wird eingesetzt, um ein Gerät synchronisiert zu halten. Das Gerät kann aber nicht aktiv am Datenverkehr teilnehmen. Der Park -Modus wird zwar von fast allen Chipsätzen unterstützt, aber trotzdem kaum angewen- det.

Details zur Reduzierung des Energieverbrauchs zwecks geringerer Belastung kleiner Batterien sind bei allen bisherigen und neuen Modi von der jeweiligen Abstimmung von Master und Slave abhängig.

Sicherheitsmodi

Der Bluetooth-Standard definiert folgende drei Sicherheitsstufen, von der unsichersten angefangen hin zur sichersten:

-Modus 1 (Non-Secure Mode): In diesem Modus gibt es keine Sicherheitsme- chanis- men. Die Geräte wechseln nur fortlaufend die Frequenz, um das Abhö- ren zu erschwe- ren. -Modus 2 (Service-Level Enforced Security): In diesem Modus liegt es bei den benutz- ten Diensten, auf dem Application Layer Sicherheitsmechanismen durchzusetzen. Dien- ste können für alle Geräte offen sein, nur eine Authentifi- zierung vorsehen oder noch zusätzlich eine Autorisierung erfordern.

-Modus 3 (Link-Level Enforced Security): In diesem Modus findet schon beim Verbin- dungsaufbau eine Authentifizierung auf dem Link Layer statt. Verschlüs- selung ist op- tional.

Viele Mobiltelefone können per Bluetooth Daten übertragen. Böswillige Angreifer können unter Umständen per Bluetooth durch unvorsichtig konfigurierte Geräte oder fehlerhafte Implementierungen des Bluetooth-Protokolls in den Geräten hohen finanzi- ellen Schaden durch den Anruf kostenpflichtiger Telefon- und SMS-Dienste verursa- chen, private Nutzerdaten lesen, Telefonbucheinträge schreiben und die Liste angerufe- ner Nummern zwecks Vertuschung manipulieren. Allgemeine, geräteunabhängige DoS- Angriffe auf Netzwerkprotokollebene sind mit einfachen Mitteln möglich (z. B.„Ping“- Anforderungen mit großen Paketen).

Bluetooth-Protokollstapel

Bluetooth-Protokollstapel sind Softwarepakete mit Treibern, die eine Verbindung mit Bluetooth-Geräten ermöglichen und Dienste zur Verwendung unterschiedlicher Blue- tooth-Profile enthalten. Welchen Stack man benutzen kann, hängt vom Treiber und vom verbauten Chip ab.

Die bekanntesten Protokollstapel bzw. deren Hersteller sind:

-Affix

-BlueFRITZ! von AVM (Entwicklung eingestellt)

-BlueSoleil von IVT

-BlueZ (Standard unter Linux)

-In The Hand

-lwBT

-Microsoft -Stollmann

-Toshiba

-Widcomm von Broadcom

Bluetooth-Stack ist auch eine Bezeichnung für Softwarepakete, die für die Entwicklung von Java- An Wendungen mit Bluetooth-Funktionalität benötigt werden. Soll beispiels- weise eine J2ME-Anwendung mit einem J2SE-Server kommunizieren können, wird neben einem Bluetooth-Treiber (s. o.) ein Bluetooth-Stack als Schnittstelle zwischen dem Treiber (z. B. Widcomm) und Java benötigt. Bluetooth- Stacks für Java sind bei- spielsweise:

-Avetana

-BlueCove Bluetooth-Profile

Siehe auch: Bluetooth-Profile

Daten werden zwischen Bluetooth- Geräten gemäß sogenannten Profilen ausgetauscht, die für die Steuerung bestimmter Dienste als Schicht über der Protokollschicht festge- legt sind. Sobald eine Bluetooth -Verbindung aufgebaut wird, wählen die Geräte das je- weils benutzte Profil aus und legen damit fest, welche Dienste sie für die jeweiligen an- deren Partner zur Verfügung stellen müssen und welche Daten oder Befehle sie dazu benötigen. Ein Headset fordert beispielsweise von einem Bluetooth kompatiblen Mobil- telefon einen Audiokanal an und steuert über zusätzliche Datenkanäle die Lautstär- keeinstellung oder -regelung.

Geschichte

Schon seit den späten 1980em gibt es verschiedene Bestrebungen, das Kabelgewirr rund um eine Computerinstallation durch Funkperipherie (z. B. Funktastaturen, Drucker mit Infrarotschnittstelle etc.) zu vermeiden. Verschiedene Unzulänglichkeiten (hoher Stromverbrauch, gegenseitige Störungen usw.) und vor allem fehlende Standards ver- hinderten den Durchbruch dieser Anfänge. Damals war neben der Funktechnik die Infrarottechnik sehr beliebt, und es sah so aus, als ob sich letztere durchsetzen würde. Um ein herstellerübergreifendes Protokoll zu entwickeln, schlossen sich im August 1993 ca. 30 Unternehmen zusammen (darunter HP, IBM, Digital) und gründeten die Infrared Data Association (IrDA). Ziel war es, ein einheitliches Protokoll für die Datenübertragung per Infrarot zu schaffen. Zahlreiche Erkenntnisse aus der IrDA-Entwicklung flössen später auch in den neugewonnenen Bluetooth-Funkstandard ein.

Doch hatte die IrDA-Technik mit einem zentralen Nachteil zu kämpfen: Den erforderli- chen Sichtkontakt zwischen Sender und Empfänger. Daher wurde 1994 die Firma Ericsson mit einer Machbarkeitsstudie beauftragt, die einen funkbasierten Ersatz für Kabelverbindungen finden sollte.

Die Studie lieferte ein positives Ergebnis, und 1998 gründeten Ericsson, Nokia, IBM, Toshiba und Intel die Bluetooth Special Interest Group (SIG) zur Ausarbeitung eines Standards, der verbindliche Spezifikationen festlegte. Als erste endgültige Spezifikation veröffentlichte die SIG Version 1.0a im Juli 1999, Version 1.0b folgte im Dezember desselben Jahres. Erst im Februar 2001 wurde der Standard in der Version 1.1 vorge- legt. Dieser galt als die erste solide Basis für marktgerechte Produkte, da die Vorversio- nen eine Reihe von Ungenauigkeiten und Fehlern aufwiesen.

Die Namensgebung„Bluetooth“ ist eine Hommage an den dänischen Wikingerkönig Harald Blauzahn, der für seine Kommunikationsfähigkeit bekannt war. Ihm gelang es im 10. Jahrhundert, Dänemark weitgehend zu vereinen und zu christianisieren. [14] Der Name„Bluetooth“ war ursprünglich ein Codename für die entwickelte Technik, der später mangels guter Alternativen auch als Markenname verwendet wurde. Die Wahl eines skandinavischen Namensgebers erfolgte wegen der hohen Beteiligung der Firmen Ericsson und Nokia an der Bluetooth-Entwicklung. Ältere Bluetooth- Versionen

Eine Auswahl wichtiger Eigenschaften der bisherigen Bluetooth -Versionen, die inzwi- schen allesamt nicht mehr der letzten Überarbeitung zur Version 4.0 vom Dezember 2009 (s. o.) entsprechen, sind:

-Bluetooth 1.0 und 1.0B (Juli 1999)

Enthielt Sicherheitsprobleme durch Bluetooth Hardware Device Address Transmission (BD_ADDR); maximale Datenübertragungsrate von 732,2 kbit/s

-Bluetooth 1.1 (Februar 2001)

Indikator für die Signalstärke hinzugefügt Received Signal Strength Indication (RSSI); maximale Datenübertragungsrate von 732,2 kbit/s

-Bluetooth 1.2 (November 2003)

Weniger empfindlich gegen statische Störer (zum Beispiel WLAN) durch Adaptive Frequency-Hopping spread spectrum (AFH); neue Pakettypen für synchrone Übertra- gung (eSCO); maximale Datenübertragungsrate vonl Mbit/s

-Bluetooth 2.0 + EDR (November 2004)

Etwa dreifache Datenübertragungsgeschwindigkeit durch Enhanced Data Rate (EDR) mit maximal 2,1 Mbit/s; abwärtskompatibel, d. h., es können gleichzeitig EDR- und Nicht-EDR- Verbindungen bedient werden.

-Bluetooth 2.1 + EDR (auch Lisbon Release genannt, August 2007) Neue Funktionen wie Secure Simple Pairing, Quality of Service.

-Bluetooth 3.0 + HS (auch Seattle Release genannt, April 2009)

Für diese Version ist die Unterstützung eines zusätzlichen Highspeed (HS)- Kanals auf Basis von WLAN und UWB verfügbar. Die Nutzung von WLAN ist dabei lokal deut- lich eingeschränkt. Die Kommunikation funktioniert zwischen einzelnen Geräten (Peer- to-Peer) und nicht durch Verteilung (Multicast). Dafür braucht sich der Nutzer auch nicht anzumelden, die L2CAP-Protokollschicht wurde erweitert, um neben dem Stan- dard-Bluetooth-Kanal zusätzlich diesen Highspeed-Kanal zu unterstützen. Damit kann eine theoretische Übertra- gungsrate von 24 Mbit/s erreicht werden.

Bei UWB (Ultrabreitband) als physikalische Übertragungsart (basierend auf der Spezi- fikation ECMA-368) und WiMedia MAC als Protokollschicht waren bis zu 480 Mbit/s geplant. Auf dieser Spezifikation hätten auch andere Proto- kolle wie WUSB und IP aufgesetzt werden sollen.Die Spezifikation wurde im Oktober 2009 aufgegeben.

-Bluetooth 3.0 + DER

„EDR“ steht für„Enhanced Data rate“.

-Bluetooth 4.0

Die Spezifikation 4.0 wurde am 17. Dezember 2009 verabschiedet. Mit diesem Stan- dard wurde erstmals der Protokollstapel Low Energy verfügbar und neue Profile zu Low Energy kamen seitdem laufend hinzu. Entsprechende Chips waren in kleinen Stückzahlen bereits ab dem 4. Quartal 2010 verfügbar, weitere Hinweise ließen mit Bluetooth 4.0 ausgestattete Mobiltelefone ab dem 1. Quartal 2011 erwarten. Im Juni 201 1 schließlich waren Bluetooth-4.0-konforme Chips bereits von Atheros, CSR, Nor- dic Semiconductor, Texas Instruments, Toshiba sowie EM Microelectronic Marin ver- fügbar.

-Der Standard 4.0 ist abwärtskompatibel mit allen Vorgänger-Versionen.[21] Für Ver- bindungen mit den bisherigen Protokollen kommt eine verbesserte Fehler- korrektur zum Einsatz, für das erforderliche Maß an Sicherheit soll eine AES- Verschlüsselung mit 128 Bit verwendet werden.

-Bluetooth Low Energy/Smart ist ein Teil des 4.0-Standards, bietet allerdings keine Abwärtskompatibilität. Dafür ist es möglich, in weniger als fünf Millise- künden eine Übertragung aufzubauen und diese bis zu einer Entfernung von 100 Metern aufrechtzu- erhalten. -Der wichtigste Vorteil bei Einsatz von Bluetooth Low Energy in neuen Endge- räten ist die Reduzierung des Stromverbrauchs durch Optimierungen, wie die kürzere Auf- bauzeit für eine Übertragung oder die Schlafphasen zwischen den synchronisierten Sendezyklen. Allerdings können dadurch keine Audiodaten mehr übertragen werden.

-Hybride Geräte, die sowohl Bluetooth Classic als auch Bluetooth Low Energy unter- stützen, werden„Smart Ready“ genannt.

Ankündigungen zur Verfügbarkeit von Endgeräten mit Bluetooth 4.0 blieben bis Mitte 2011 spekulativ und ohne Bestätigung der Lieferbarkeit. Seitdem sind eine Vielzahl verschiedener Endgeräte unterschiedlicher Hersteller auf dem Markt, die den Bluetooth- 4.0-Standard unterstützen. Da Android Bluetooth 4.0 erst in der Mitte 2013 erschiene- nen Version 4.3 unterstützt, kam es zwischenzeitlich zu der Situation, dass manche Mobiltelefone zwar hardwareseitig Bluetooth 4.0 unterstützten, dies aber mangels ent- sprechenden Bluetooth-Protokollstapels nicht nutzen konnten.

- Bluetooth 4.1

Im Dezember 2013 wurde Version 4.1 der Bluetooth-Spezifikation veröffentlicht. Di- rekt darauf wurden erste Geräte mit dem neuen Standard angekündigt, z. B. das Samsung Galaxy Note 4 und das Nexus 6.

-Bluetooth 4.2 Smart

Im Dezember 2014 wurde der Bluetooth-4.2-Standard vorgestellt. Hauptaugenmerk bei der Entwicklung waren erweiterte Sicherheitsmerkmale, eine höhere Übertragungsge- schwindigkeit und ein noch sparsamerer Bluetooth-"Low Energy"- Modus. Neuere Ge- räte wie das Samsung Galaxy Note 5 und das Apple iPhone 6 unterstützen auch diesen Standard.

Bluetooth 5

Am 16. Juni 2016 wurde Bluetooth 5 offiziell angekündigt. Laut dieser Ankündigung soll die Reichweite vervierfacht (100 m) und die Datenrate verdoppelt (2 Mbit/s brutto ohne EDR) werden. Zusätzlich sollen neue Dienste wie Standortübermittlung eingeführt werden. Die endgültige Verabschiedung fand am 6. Dezember 2016 statt.

Einsatzbereiche Computer

Zum Betrieb von Bluetooth am PC ist spezielle Hardware erforderlich. Manche Compu- ter (zumeist Notebooks) haben diese bereits integriert, ansonsten sind auch kleine, an der USB-Schnittstelle angeschlossene Geräte oder PCMCIA-Karten für diesen Zweck erhältlich. Außerdem spielt das verwendete Betriebssystem eine entscheidende Rolle. Unter Microsoft Windows ist es seit Windows XP SP2 dank des mitgelieferten Microsoft Bluetooth-Stacks nicht mehr erforderlich, einen speziellen Treiber zu instal- lieren. Eine größere Auswahl an unterstützenden Profilen hat man jedoch mit den Blue- tooth-Stacks anderer Hersteller. Auch aktuelle Linux- Distributionen und Apple- Macintosh-Modelle unterstützen Bluetooth durch eigene, jeweils zertifizierte Bluetooth- Stacks. Wer einen PC mit Bluetooth zur Verfügung hat, kann außerdem mit der passen- den Software andere Bluetooth-Geräte in Reichweite aufspüren und, je nach Funktions- umfang der Software, eine detaillierte Auflistung der offenen Dienste einsehen. Solche Software wird als Bluetooth-Scanner bezeichnet.

Bluetooth- Anwendungen am Computer

-SCO-Audio: synchroner Headset-Betrieb (Skype, SIP usw.)

-AV- oder A2DP -Audio: HiFi-Musikwiedergabe geeignet zum Anschluss eines oder mehrerer Kopfhörer

-Mobiltelefon-Synchronisation (Kontakte, Musikdateien, mobiler Intemet-Zu- gang usw.)

-HID: Eingabegeräte wie Maus und Tastatur

-Motion Capturing: Übertragung von Bewegungsdaten an den Auswertungs- Computer (zum Beispiel Xsens MVN)

-Zwei-Faktor-Authentifizierung nach dem U2F-Standard der FIDO-Allianz Freisprech- anlagen und Headsets Viele Autoradios fungieren als Freisprechanlage, indem sie das Mobiltelefon über Blue- tooth einbinden, so dass auf die Installation spezieller Handy -Halterungen im Auto ver- zichtet werden kann. Über Bluetooth kann nicht nur ein Anruf entgegengenommen werden, sondern auch gewählt und navigiert werden. Sinnvolle Zusatzinformationen wie Nummer des Anrufenden bzw. dessen Namen werden ebenfalls vom Handy- Adressbuch per Bluetooth an das Autoradio übertragen. Auch Freisprechanlagen au- ßerhalb des Autos funktionieren über Bluetooth. Headsets, die über Bluetooth verbun- den werden, können oft über eine entsprechende Taste auch eingehende Anrufe entge- gennehmen.

Die Unterstützung solcher Steuerfunktionen (z. B. Aktivierung des Sprachassistenten am Smartphone) variiert stark mit den verwendeten Geräten und ist abhängig von den Hersteller-Chips, resp. deren Programmierung gemäß den Möglichkeiten der entspre- chenden Bluetooth-Protokollstapel.

Spielgeräte

Die Spielzeugindustrie verwendet diese Technik, um Puppen und Spielzeugtiere unter- einander kommunizieren und interagieren zu lassen.

Auch die Controller der Nintendo Wii / Wii U / Switch, der Playstation 3 / Playstation 4, der Xbox One S / Xbox One X, Lego Mindstorms EV3 und der Ouya nutzen Blue- tooth zur Kommunikation mit der Konsole.

Kommunikation

Bluetooth-Hotspots als Funkzelle ermöglichen einen schnurlosen Zugriff auf ein Netz- werk, wie das Internet oder ein Untemehmens-LAN. Audiogeräte ohne Bluetooth, ins- besondere ältere Mobiltelefone und Festnetztelefone, können über einen angeschlosse- nen Adapter eingeschränkt um Bluetooth erweitert werden. Speziell für Motorrad- sprechanlagen wird in den letzten Jahren von vielen Herstellern vermehrt Bluetooth eingesetzt, mit Reichweiten bis zu 1,6 km. Besondere Vorteile sind sehr kleine Baugrö- ßen und der Verzicht auf störende Kabel. Über Bluetooth können auch universelle zusätzliche Faktoren für die Zwei-Faktor- Au- thentifizierung mit Betriebssystemen oder Webbrowsern kommunizieren, wie zum Bei- spiel Security-Tokens für den offenen U2F-Standard der FIDO-Allianz.

Industrie

Aufgrund des eingesetzten adaptiven Frequenzsprungverfahrens (AFH) bietet Bluetooth eine sehr zuverlässige und störungsresistente Funkverbindung. Dieser Vorteil von Blue- tooth gegenüber anderen Funktechniken wurde frühzeitig von verschiedenen Herstel- lern für Automatisierungsprodukte (z. B. Phoenix Contact, WAGO Kontakttechnik GmbH & Co. KG, Schildknecht AG) erkannt.

Daraufhin wurden Bluetooth-basierende Industrieprodukte entwickelt, die in ver- schiedensten Bereichen der Industrie eingesetzt werden, um kabellos zwischen ver- schiedenen Komponenten in Maschinen zu kommunizieren.

Mittlerweile hat die PROFIBUS Nutzerorganisation e. V. (PNO) Bluetooth neben WLAN als Trägerverfahren für kabellose Übertragung von PROFINET-Datenpaketen auf der Feldbus-Ebene definiert. Auf der Sensor/ Aktor -Ebene wurde im PNO-Standard WSAN-FA ebenfalls 802.15.1 als Trägertechnologie verwendet, jedoch mit einem an- deren Protokollstack. Auch die Vereinigung CAN in Automation (CiA) plant die Spezi- fikation eines auf Bluetooth basierenden Systems für die kabellose Übertragung von CAN-Telegrammen. Insgesamt untermauern die Standardisierungsbestrebungen die Tauglichkeit von Bluetooth für die industrielle Automation.

Haustechnik

Im Bereich Hausautomation und Alarmsysteme gibt es Produkte, welche Bluetooth 2.0 nutzen.

Eine weitere Anwendung ist Bluetooth als Schlüssel, wofür jedes Bluetooth-fähige Ge- rät als Schlüssel eingesetzt werden kann. Es ist hierfür keine weitere Software auf den Geräten (Mobiltelefone) notwendig. Medizintechnik

In der Orthopädietechnik wird Bluetooth zur Einstellung moderner Arm- und Beinpro- thesen verwendet. Einstellungen wie Standphasendämpfung und Maximallast lassen sich per Bluetooth vornehmen.

Hörgeräte in höheren Preisklassen sind ebenfalls mit Bluetooth-Empfängem erhältlich. Damit lassen sich die Signale von Mobiltelefonen und Audio-Geräten selektiv über ei- nen Transponder ohne umgebungsbedingte Verzerrungen auf das Hörgerät übertragen. Der Transponder kommuniziert über Bluetooth und überträgt die Informationen in den Funkbereich der Hörgeräte.

Bei einigen Insulinpumpen dient Bluetooth als Schnittstelle zur Kommunikation mit ei- nem Blutzuckermessgerät, einer Fernbedienung oder einem Personalcomputer.

Anmerkungen

„HID Proxy Mode“ für Computer ohne Bluetooth-Unterstützung

Üblicherweise stehen die Bluetooth-Eingabegeräte erst dann zur Verfügung, wenn das Betriebssystem und dessen Bluetooth-Stack geladen sind. Dadurch ist es nicht möglich, mit einer Bluetooth-Tastatur z. B. vor dem Laden des Betriebssystems Einstellungen im BIOS oder im UE FI -Einstellungsmenü vorzunehmen oder den PC per„Wake up on Keyboard“-Funktion aus dem S4-Ruhemodus zu wecken oder aus dem ausgeschalteten Modus einzuschalten. Zudem ist bei einigen Systemen das Nachrüsten einer Bluetooth- Schnittstelle aus verschiedenen Gründen nicht problemlos möglich. Dazu gehören viele Smart-TVs, viele Microcontroller-Boards, NAS-Systeme, Rack-Server.

Einige Bluetooth-Adapter überwinden diese Probleme durch den„FQD Proxy Mode“. Durch einen Mikrocontroller stellen solche Adapter selbst einen Bluetooth-Stack für Bluetooth-Eingabegeräte zur Verfügung. Diese Geräte können sich mit dem Bluetooth- Adapter vor dem Laden des Betriebssystems verbinden und somit für die Wake-Up-on- Keyboard-Funktion oder Änderungen im BIOS oder im UEFI- Einstellungsmenü ver- wendet werden. Der Bluetooth-Adapter gibt sich dabei dem BIOS und der UEFI- Firmware gegenüber als normales USB-HID-Eingabegerät aus. Er übergibt die BT- Funktionalität an das Betriebssystem, sobald dessen Bluetooth- Treiber und Bluetooth- Stack geladen sind, womit dann neben Bluetooth- Eingabegeräten auch andere Blue- tooth-Geräte verwendet werden können.

Die UEFI-Firmware könnte auch selbst einen Bluetooth-Stack für Bluetooth- Eingabe- geräte zur Verfügung stellen, so dass Bluetooth-Eingabegeräte auch ohne HID-Proxy- Mode-Unterstützung bereits im UEFI-Menü verwendet werden können. Eine konkrete Implementierung eines Bluetooth-Stacks für die UEFI-Firmware von Hauptplatinen ist allerdings noch nicht bekannt.

31. Router

Router (['ru:to(r)] oder ['rau to(r)]) oder Netzwerkrouter sind Netzwerkgeräte, die Netzwerkpakete zwischen mehreren Rechnemetzen weiterleiten können. Sie werden am häufigsten zur Internetanbindung, zur sicheren Kopplung mehrerer Standorte (Virtual Private Network) oder zur direkten Kopplung mehrerer lokaler Netzwerksegmente, ge- gebenenfalls mit Anpassung an unterschiedliche Netzwerktechniken eingesetzt (Ethernet, DSL, PPPoE, ISDN, ATM etc.).

Router treffen ihre Weiterleitungsentscheidung anhand von Informationen aus der Netzwerk-Schicht 3 (für das IP -Protokoll ist das der Netzwerkanteil in der IP- Adresse). Viele Router übersetzen zudem zwischen privaten und öffentlichen IP- Adressen (Network Address Translation, Port Address Translation, NAT/PAT) oder bilden Fire- wall-Funktionen durch ein Regelwerk ab.

Die für die Kopplung von Heimnetzwerken ans Internet ausgelegten Router nennt man auch Intemetrouter.

Router arbeiten auf Schicht 3 (Vermittlungsschicht/Network Layer) des OSI- Refe- renzmodells. Ein Router besitzt mindestens eine Schnittstelle (englisch Interface), die Netze anbindet. Schnittstellen können auch virtuell sein, wenn diese z.B. zum Vermit- teln von Daten zwischen virtuellen Netzen (VLAN) verwendet werden. Beim Eintreffen von Datenpaketen muss ein Router anhand der OSI- Schicht-3 -Zieladresse (z. B. der Netzanteil der IP-Adresse) den besten Weg zum Ziel und damit die passende Schnitt- stelle bestimmen, über welche die Daten weiterzuleiten sind. Dazu bedient er sich einer lokal vorhandenen Routingtabelle, die angibt, über welchen Anschluss des Routers oder welchen lokalen oder entfernten Router welches Netz erreichbar ist.

Router können Wege auf drei verschiedene Arten lernen und mit diesem Wissen die Routingtabelleneinträge erzeugen:

-direkt mit der Schnittstelle verbundene Netze: Sie werden automatisch in eine Routing- tabelle übernommen, wenn ein Interface mit einer IP-Adresse konfigu- riert wird und dieses Interface aktiv ist ("link up").

-statische Routen: Diese Wege werden durch einen Administrator eingetragen. Sie die- nen zum einen der Sicherheit, sind andererseits nur verwaltbar, wenn ihre Zahl begrenzt ist. Die Skalierbarkeit ist für diese Methode ein limitierender Faktor.

-dynamische Routen: In diesem Fall lernen Router erreichbare Netze durch ein Rou- tingprotokoll, das Informationen über das Netzwerk und seine Teilnehmer sammelt und an die Mitglieder verteilt.

Die Routingtabelle ist in ihrer Funktion einem Adressbuch vergleichbar, in dem nach- geschlagen wird, ob ein Ziel-IP-Netz bekannt ist, also ob ein Weg zu diesem Netz exi- stiert und, wenn ja, welche lokale Schnittstelle der Router zur Vermittlung der Daten zu diesem verwenden soll. Die Routing-Entscheidung erfolgt üblicherweise nach der Si- gnifikanz der Einträge; spezifischere Einträge werden vor weniger spezifischen ge- wählt. Eine vorhandene Default-Route stellt dabei die am wenigsten spezifische Route dar, welche dann genutzt wird, wenn zuvor kein spezifischer Eintrag für das Ziel(-Netz) existiert. Bei einem Bezug der gesamten Internet -Routing- Tabelle im Rahmen des In- ter-AS-Routing ist es üblich, keine Default-Route vorzuhalten. Einige Router beherrschen englisch Policy Based Routing (für strategiebasiertes Rou- ting). Dabei wird die Routingentscheidung nicht notwendigerweise auf Basis der Zieladresse (OSI-Layer 3) getroffen, sondern es können auch andere Kriterien des Da- tenpaketes berücksichtigt werden. Hierzu zählen beispielsweise die Quell -IP- Adresse, Qualitätsanforderungen oder Parameter aus höheren Schichten wie TCP oder UDP. So können zum Beispiel Pakete, die HTTP (Web) transportieren, einen anderen Weg neh- men als Pakete mit SMTP-Inhalten (Mail).

Router können nur für Routing geeignete Datenpakete, also von routingfahigen Proto- kollen, wie IP (IPv4 oder IPv6) oder IPX/SPX, verarbeiten. Andere Protokolle, wie das ursprünglich von MS-DOS und MS-Windows benutzte NetBIOS und NetBEUI, die nur für kleine Netze gedacht waren und von ihrem Design her nicht routingfähig sind, wer- den von einem Router standardmäßig nicht weitergeleitet.

Es besteht jedoch die Möglichkeit, solche Daten über Tunnel und entsprechende Funk- tionen, wie Datalink Switching (DLSw), an entfernte Router zu vermitteln und dort dem Ziel zuzustellen. Pakete aus diesen Protokollfamilien werden in aller Regel durch Sy- steme, die auf Schicht 2 arbeiten, also Bridges oder Switches, verarbeitet. Professionel- le Router können bei Bedarf diese Bridge -Funktionen wahmehmen und werden Layer- 3 -Switch genannt. Als Schicht-3 -System enden am Router alle Schicht-2-Funktionen, darunter die Broadcastdomäne.

Das ist insbesondere in großen lokalen Netzen wichtig, um das Broadcast-Aufkommen für die einzelnen Teilnehmer eines Subnetzes gering zu halten. Sollen allerdings Broadcast-basierte Dienste, wie beispielsweise DHCP, über den Router hinweg funk- tionieren, muss der Router Funktionen bereitstellen, die diese Broadcasts empfangen, auswerten und gezielt einem anderen System zur Verarbeitung zuführen können (Relay- Agent- Funktion).

Außerdem sind Ein- und Mehrprotokoll-Router (auch Multiprotokoll -Router) zu unter- scheiden. Einprotokoll-Router sind nur für ein Netzwerkprotokoll wie IPv4 geeignet und können daher nur in homogenen Umgebungen eingesetzt werden. Multiprotokoll- Router beherrschen den gleichzeitigen Umgang mit mehreren Protokollfamilien, wie DECnet, IPX/SPX, SNA, IP und anderen. Heute dominieren IP- Router das Feld, da praktisch alle anderen Netzwerkprotokolle nur noch eine untergeordnete Bedeutung ha- ben und, falls sie zum Einsatz kommen, oft auch gekapselt werden können (NetBIOS over TCP/IP, IP-encapsulated IPX). Früher hatten Mehrprotokoll-Router in größeren Umgebungen eine wesentliche Bedeutung, damals verwendeten viele Hersteller unter- schiedliche Protokollfamilien, daher kam es unbedingt darauf an, dass vom Router mehrere Protokoll-Stacks unterstützt wurden. Multiprotokoll-Router finden sich fast ausschließlich in Weitverkehrs- oder ATM-Netzen.

Wichtig ist die Unterscheidung zwischen den gerouteten Protokollen (wie Internet Pro- tocol oder IPX) und Routing-Protokollen. Routing-Protokolle dienen der Verwaltung des Routing-Vorgangs und der Kommunikation zwischen den Routern, die so ihre Rou- ting-Tabellen austauschen (beispielsweise BGP, RIP oder OSPF). Geroutete Protokolle hingegen sind die Protokolle, die den Datenpaketen, die der Router transportiert, zu- grunde liegen.

Typen (Bauformen)

Backbone-Router, Hardware-Router Avaya ERS-8600

Die Hochgeschwindigkeitsrouter (auch Carrier-Class-Router) im Internet (oder bei gro- ßen Unternehmen) sind heute hochgradig auf das Weiterleiten von Paketen optimierte Geräte, die viele Terabit Datendurchsatz pro Sekunde in Hardware routen können. Die benötigte Rechenleistung wird zu einem beträchtlichen Teil durch spezielle Netzwer- kinterfaces dezentral erbracht, ein zentraler Prozessor (falls überhaupt vorhanden) wird nicht oder nur sehr wenig belastet. Die einzelnen Ports oder Interfaces können unab- hängig voneinander Daten empfangen und senden.

Sie sind entweder über einen internen Hochgeschwindigkeitsbus (Backplane) oder kreuzweise miteinander verbunden (Matrix). Meist sind solche Geräte für den Dauerbe- trieb ausgelegt (Verfügbarkeit von 99,999 % oder höher) und besitzen redundante Hardware (Netzteile), um Ausfälle zu vermeiden. Üblich ist es auch, alle Teilkompo- nenten im laufenden Betrieb austauschen oder erweitern zu können (hot plug). In den frühen Tagen der Rechnervemetzung war es dagegen üblich, handelsübliche Worksta- tions als Router zu benutzen, bei denen das Routing per Software implementiert war.

Border-Router

Ein Border-Router oder Edge-Router kommt meistens bei Internetdienstanbietem (Internet Service Provider) zum Einsatz. Er muss die Netze des Teilnehmers, der ihn betreibt, mit anderen Peers (Partner-Routern) verbinden. Auf diesen Routern läuft überwiegend das Routing-Protokoll BGP.

Zur Kommunikation zwischen den Peers kommt meist das Protokoll EBGP (Extemal Border Gateway Protocol) zum Einsatz, dieses ermöglicht dem Router den Datentrans- fer in ein benachbartes autonomes System.

Um den eigenen Netzwerkverkehr zu priorisieren, setzen die Betreiber oft Type of Ser- vice Routing und Methoden zur Überwachung der Quality of Service (QoS) ein.

Hi gh-End-S witche s

Bei manchen Herstellern (beispielsweise bei Hewlett-Packard) finden sich die Hochge- schwindigkeitsrouter (auch Carrier-Class-Router, Backbone-Router oder Hardware- Router) nicht unter einer eigenen Rubrik Router. Router werden dort gemeinsam mit den besser ausgestatteten Switches (Layer-3 -Switch und höher, Enterprise Class) ver- marktet. Das ist insoweit logisch, als Switches ab dem gehobenen Mittelklasse -Bereich praktisch immer die Routingfunktionalität beherrschen.

Technisch sind das Systeme, die, ebenso wie die als Router bezeichneten Geräte, hoch- gradig auf das Weiterleiten von Paketen (Router: anhand der OSI-Schicht-3-Adresse wie die IP-Adresse, Switch: anhand der OSI-Schicht-2- Adresse, der MAC-Adresse) optimiert sind und viele Gigabit Datendurchsatz pro Sekunde bieten. Sie werden per Managementinterface konfiguriert und können wahlweise als Router, Switch und natür- lich im Mischbetrieb arbeiten. In diesem Bereich verschwimmen auch finanziell die Grenzen zwischen beiden Geräteklassen mehr und mehr.

Sofitware-Router

Anstatt spezieller Routing-Hardware können gewöhnliche PCs, Laptops, Nettops, Unix- Workstations und -Server als Router eingesetzt werden. Die Funktionalität wird vom Betriebssystem übernommen und sämtliche Rechenoperation von der CPU ausgeführt. Alle POSIX-konformen Betriebssysteme beherrschen Routing von Haus aus und selbst MS-DOS konnte mit der Software KA9Q von Phil Kam mit Routing- Funktionalität erweitert werden.

Windows bietet in allen NT-basierten Workstation- und Server- Varianten (NT, 2000, XP, 2003, Vista, 7) ebenfalls Routing-Dienste. Die Serverversion von Apples Mac OS X enthält Router-Funktionalität.

Das freie Betriebssystem OpenBSD (eine UNIX-Variante) bietet neben den eingebau- ten, grundlegenden Routingfunktionen mehrere erweiterte Routingdienste, wie Open- BGPD und OpenOSPFD, die in kommerziellen Produkten zu finden sind. Der Linux- Kemel enthält umfassende Routing-Funktionalität und bietet sehr viele Konfigurati- onsmöglichkeiten, kommerzielle Produkte sind nichts anderes als Linux mit proprie- tären Eigenentwicklungen.

Es gibt ganze Linux -Distributionen, die sich speziell für den Einsatz als Router eignen, beispielsweise Smoothwall, IPCop oder Fli41. Einen Spezialfall stellt OpenWrt dar, die- se erlaubt es dem Benutzer eine Firmware zu erstellen, die auf einem embedded Gerät läuft und sich über SSH und HTTP konfigurieren lässt.

Der entscheidende Nachteil von Software -Routern auf PC-Basis ist der hohe Stromver- brauch. Gerade im SoHo-Bereich liegen die Stromkosten innerhalb eines Jahres höher als der Preis für ein embedded Gerät. DSL-Router

Ein Router, der einen PPPoE-Client zur Einwahl in das Internet via xDSL eines ISPs beinhaltet und gegenwärtig Network Address Translation (NAT) in IPv4-Netzen zur Umsetzung einer öffentlichen IPv4-Adresse auf die verschiedenen privaten IPv4- Adressen des LANs beherrscht, wird als DSL-Router bezeichnet. Häufig sind diese DSL-Router als Multifunktionsgeräte mit einem Switch, einem WLAN Access Point, nicht selten mit einer kleinen TK- Anlage, einem VoIP-Gateway oder einem DSL- Mo- dem (xDSL jeglicher Bauart) ausgestattet.

Firewall-Funktionalität in DSL-Routem

Fast alle DSL-Router sind heute NAT -fähig, mithin in der Lage Netzadressen zu über- setzen. Weil ein Verbindungsaufbau aus dem Internet auf das Netz hinter dem NAT- Router nicht ohne weiteres möglich ist, wird diese Funktionalität von manchen Herstel- lern bereits als NAT-Firewall bezeichnet, obwohl nicht das Schutzniveau eines Paketfil- ters erreicht wird. Die Sperre lässt sich durch die Konfiguration eines Port Forwarding umgehen, was für manche Virtual Private Network- oder Peer-to-Peer- Verbindungen notwendig ist. Zusätzlich verfügen die meisten DSL-Router für die Privatnutzung über einen rudimentären Paketfilter, teilweise auch stateful. Diese Paketfilter kommen bei IPv6 zum Einsatz. Wegen des Wegfalls von NAT wird Port Forwarding wieder zu einer einfachen Freigabe des Ports. Als Betriebssystem kommt auf vielen Routern dieser (Konsumer-) Klasse Linux und als Firewall meist iptables zum Einsatz. Einen Content- Filter enthalten solche Produkte zumeist nicht. Eine wohl sichere Alternative sind freie Firewall-Distributionen auf Basis wohl sichererer Betriebssysteme, zum Beispiel OPN- sense.

Schutzmaßnahmen bei DSL- und WLAN-Routem

Bei entdeckten Programmierfehlern kann ein Router-Hersteller ein neues Software- Update bereitstellen, um nachzubessern bzw. Sicherheitslücken zu schließen. Wird der Router dann nicht auf den neuesten Stand gebracht, gefährdet man die eigene Netz- werksicherheit zusätzlich. Daher ist es auch zum Schutz der persönlichen Daten uner- lässlich, dass in regelmäßigen Abständen ein Software -Update durchgeführt wird. Weitere Maßnahmen, um Router zu schützen:

-nur aktuelle WLAN- Verschlüsselungen (WPA2) verwenden - WEP-verschlüs- selte Zugänge können binnen weniger Minuten entschlüsselt werden

- vom Hersteller vorgegebene Passwörter ändern, nur sichere Passwörter wählen -die SSID umbennen Deaktivieren von WPS und der Fernadministration

-keine Netzwerkports willkürlich und unüberlegt öffnen

-Deaktivieren von UPnP-Funktionen, die beliebiger Software das Öffnen von Netz- werkports ermöglicht

-Absichem von Diensten, die per Portweiterleitung aus dem Internet erreicht werden können

-eine leistungsfähige (dedizierte) stateful-Firewall wie pfSense oder OPNsense (letztere mit ASLR und LibreSSL) mit einem reinen DSL-Modem

WLAN -Router

Die Kombination aus Wireless Access Point, Switch und Router wird häufig als WLAN-Router bezeichnet. Das ist solange korrekt, wie es Ports für den Anschluss mindestens eines zweiten Netzes, meist einen WAN-Port, gibt. Das Routing findet zwi- schen den mindestens zwei Netzen, meist dem WLAN und WAN statt (und falls vor- handen zwischen LAN und WAN). Fehlt dieser WAN-Port, handelt es sich lediglich um Marketing-Begriffe, da reine Access Points auf OSI-Ebene 2 arbeiten und somit Bridges und keine Router sind.

Häufig sind WLAN-Router keine vollwertigen Router, sie haben oft die gleichen Ein- schränkungen wie DSL-Router (PPPoE, NAT). Bei IPv6 entfällt bei diesen Geräten NAT, lediglich in der Übergangsphase muss der Router noch zusätzlich Tunnelproto- kolle wie 6to4 beherrschen.

Router in der Automatisierung

Mit der Durchdringung von Netzwerktechnik in der industriellen Automatisierung wer- den verstärkt Modem-Router mit externem Zugang über Telefon- und Mobilfunkver- bindungen eingesetzt. Industriegeräte sind Software -Router auf Basis von embedded Linux, die nicht auf hohen Durchsatz, sondern auf mechanische Robustheit, Befesti- gung im Schaltschrank und Langlebigkeit optimiert sind.

Software- oder Hardware-Router

Generell leisten Software-Router überwiegend im nicht professionellen Umfeld wert- volle und umfangreiche Dienste. Allgemein gibt es für Software -Router zwei unter- schiedliche Implementierungsarten, zum einen dedizierte Router, dabei wird ein PC, ei- ne Workstation oder ein Server so gut wie ausschließlich als Router eingesetzt (häufig als DHCP-, DNS-Server oder Firewall); zum anderen nicht dedizierte Router, hier übernimmt ein Server zusätzlich zu seinen bestehenden Aufgaben noch das Routing. Beide Systeme sind für den performance-unkritischen Bereich gut geeignet und können mit professionellen Lösungen, vor allem was die Kosten angeht, konkurrieren, in der Leistungsfähigkeit sind sie meist unterlegen.

Das liegt unter anderem daran, dass solche Systeme bislang häufig noch auf einem klas- sischen PCI-Bus mit 32-Bit Busbreite und 33-MHz-Taktung (PCI/32/33) beruhten. Über einen solchen Bus lassen sich theoretisch 1 GBit/s (1000 MBit/s, entspricht etwa 133 MByte/s) im Halb -Duplex-Modus (HDX) leiten; da die Netzwerkpakete den PCI- Bus in diesem Fall zweimal passieren, (Karte-PCI-Arbeitsspeicher-CPU- Arbeitsspei- cher-PCI-Karte) reduziert sich der maximal routbare Datenstrom eines darauf basie- renden Software-Routers auf etwa 0,5 GBit/s. Ethernet wird heute fast immer geswitcht und im Voll-Duplex-Modus FDX betrieben, damit kann beispielsweise Gigabit- Ethemet, obwohl es Namen wie 1 GBit/s Ethernet, lGbE oder 1000BASE-T anders vermuten lassen, bereits 2 GBit/s (je lGbE in jede Richtung) übertragen.

Daraus folgt, dass ein System auf PCI/32/33 -Basis die netzwerkseitigtheoretisch mögli- che maximale Übertragungsrate von 2 GBit/s keinesfalls erreichen kann. Systeme mit einem PCI/64/66-Bus können busseitig etwa 4 GBit/s leisten, gerade ausreichend für die Spitzenlast zweier lGbE-Schnittstellen im FDX-Modus. Noch höherwertige klassi- sche (legacy) Server-Systeme verfügen über schnellere Schnittstellen (PCI-X 266 oder besser), sowie über mehrere unabhängige PCI- Busse. Sie können ohne Probleme höhe- re Durchsatzraten erzielen, aber haben typischerweise einen hohen Energieverbrauch. Weshalb besonders im dedizierten Routerbetrieb, die Kosten-Nutzen-Frage steht. Hardware-Router mit spezialisierten CPUs und anwendungsspezifisch arbeitenden Chipsätzen (anwendungsspezifische integrierte Schaltung kurz ASIC) schaffen das weitaus energieeffizienter.

Erst durch die Einführung von PCI Express (mit 2 GBit/s bei Version 1.x und 4 GBit/s pro Lane bei Version 2.x im FDX-Modus - und mehr) steht auch bei Standard-PCs eine ausreichende Peripherie-Transferleistung für mehrere lGbE- Verbindungen (auch lOGbE) zur Verfügung, so dass sich energieeffiziente, durchsatzstarke Software -Router aus preiswerter Standardhardware bauen lassen. Da bislang alle Werte theoretischer Art sind und in der Praxis nicht nur Daten durch den Bus geleitet werden, sondern Routing- Entscheidungen getroffen werden müssen, wird ein Software -Router möglicherweise weiter an Leistung einbüßen. Vorsichtigerweise sollte in der Praxis nur von der Hälfte des theoretisch möglichen Datendurchsatzes ausgegangen werden. Bei solchen Datenra- ten ist mit einem Software -Router zumindest das Kosten-Leistung-Verhältnis gut und ausreichend.

Hardware-Router aus dem High-End-Bereich sind, da sie über spezielle Hochleistungs- busse oder„cross bars“ verfügen können, in der Leistung deutlich überlegen - was sich auch im Preis widerspiegelt. Zusätzlich sind diese Systeme für den ausfallsicheren Dau- erbetrieb ausgelegt (Verfügbarkeit von 99,999 % und höher). Einfache PCs können da nicht mithalten, hochwertige Server und Workstations verfügen ebenfalls über redun- dante Komponenten und eine für viele Anwendungsfalle ausreichend hohe Ausfallsi- cherheit.

Manche so genannte Hardware -Router bestehen tatsächlich aus PC-Komponenten. Le- diglich das Gehäuse oder die zum Teil mechanisch veränderten PCI -Steckplätze und das„kryptische“ Betriebssystem erwecken den Anschein, es handle sich um Spezialsy- steme. Zwar arbeiten diese Systeme meist sehr robust und zuverlässig, dennoch wird das Routing per Software durchgeführt. Routing-Cluster

Um beispielsweise lGbE- oder 10GbE-Netze performant routen zu können, wird nicht unbedingt ein hochpreisiger Hardware-Router benötigt. Geringe Einbußen bei der Über- tragungs-Geschwindigkeit vorausgesetzt, lassen sich Routing-Cluster einsetzen. Dieser kann aus je einem Software-Router (etwa als Workstation mit zwei PCI Express 10GbE-LAN-Karten) pro Ethemet-Strang aufgebaut sein. Die Software- Router werden über einen professionellen Switch mit genügend vielen Ports und entsprechend hoher Durchsatzrate (einige Hundert GBit/s) miteinander verbunden. Im Unterschied zu Net- zen mit zentralem Backbone entspricht die maximale Datendurchsatzrate des gesamten Routing-Clusters der maximalen Durchsatzrate des zentralen Switches (einige Hundert GBit/s). Optional können die Cluster redundant (per High-Availability-Unix oder HA- Linux) ausgelegt sein. Solche Cluster- Systeme benötigen zwar relativ viel Platz und er- reichen nicht die Leistung und Zuverlässigkeit von Hochgeschwindigkeitsroutem, dafür sind sie höchst modular, gut skalierbar, vergleichsweise performant und dennoch ko- stengünstig. Sie werdeneingesetzt, wo Kosten höher als Leistung bewertet werden, bei- spielsweise in Schulen oder Universitäten.

32. Li-fi

Li-Fi (englisch light fidelity) ist ein 201 1 vom an der University of Edinburgh arbeiten- den deutschen Forscher Harald Haas geprägter Begriff für ein Verfahren der optischen Datenübertragung auf kurze Distanzen (englisch Visible Light Communications, VLC) und ein optisches Äquivalent zu den funktechnisch realisierten WLAN.

Geschichte und Stand der Forschung

Im Oktober 2011 verständigten sich vier Gründungsmitglieder, die norwegische IBSENtelecom, die israelisch-amerikanische Supreme Architecture, TriLumina (USA) und das Fraunhofer-Institut für Photonische Mikrosysteme auf die Bildung eines Li-Fi- Konsortiums zur Bewerbung dieses Standards. Durch An- und Ausschalten spezieller Leuchtdioden (LEDs) können für die optische Nahbereichskommunikation hohe Datenübertragungsraten erzielt werden: 2013 wurden im Labor 10 Gigabit pro Sekunde erzielt. Als Empfänger fungieren Fotodioden, in der eine Umwandlung der Lichtsignale in elektrische Impulse erfolgt. Mittlerweile wurden unter Laborbedingungen bereits Geschwindigkeiten von ca. 224 Gigabit pro Sekunde erreicht.

Oledcomm führte auf der Consumer Electronics Show 2014 das erste Li-Fi taugliche Mobiltelefon vor.

Harald Haas stellte Ende 2015 eine verbesserte und effizientere Variante von Li-Fi vor, bei dieser wird eine Photovoltaikzelle genutzt, um die Lichtsignale aufzufangen und weiter zu verarbeiten. Bei dieser Version wird nun auch Energie zurückgewonnen und es werden neue Anwendungsmöglichkeiten geschaffen.

Vor- und Nachteile

Im Vergleich zur Funkübertragung steht durch die optische Übertragung eine größere Bandbreite zur Verfügung, was theoretisch auf gleichem Raum eine höhere Anzahl von Datenkanälen erlaubt. Außerdem ist dieses Übertragungsverfahren auch in Bereichen einsetzbar, wo Funksignale wegen der elektromagnetischen Verträglichkeit problema- tisch sein können, etwa in Flugzeugen oder Krankenhäusern. Ferner ist die Nutzung der optischen Übertragung sicherer, da ein Angreifer physischen Zugang zu der Lichtquelle haben müsste, um Datenpakete abzufangen beziehungsweise zu manipulieren.

Im Gegensatz zu Funksystemen ist bei optischer Übertragung im Regelfall nur eine di- rekte Datenübertragung auf Sicht möglich und eine Datenübertragung durch bspw. Hauswände hindurch nicht möglich. Dies macht bei Li -Fi- Ausstattung ggf. die Installa- tion von ortsfesten Empfangs- und Sendestationen erforderlich. Jedoch ist bei neuester 5G-Technologie im 30-GHz-Bereich auch in jedem Raum ein Sender nötig, weshalb ortsfeste Empfangs- und Sendestationen kein exklusiver Nachteil von Li-Fi mehr sind. 33. Mikroelektronik

Die Mikroelektronik ist ein Teilgebiet der Elektronik, genauer der Halbleiterelektronik, und der Mikrotechnik. Die Mikroelektronik beschäftigt sich mit dem Entwurf, der Ent- wicklung und der Herstellung von miniaturisierten, elektronischen Schaltungen, heute vor allem integrierten Schaltungen. Diese auf Halbleitern basierenden Schaltungen nut- zen viele elektronische Bauelemente, wie sie auch in normalen elektronischen Schal- tungen verwendet werden, beispielsweise Transistoren, Kondensatoren, Dioden und Widerstände.

In der Geschichte der integrierten Mikroelektronik haben sich verschiedene Schaltkreis- familien (TTL, CMOS etc.) herausgebildet, die sich hinsichtlich der eingesetzten Funk- tionsprinzipien (zum Beispiel bipolare und unipolare Bauelemente/Transistoren) und den damit verbundenen schaltungstechnischen Eigenschaften (Leistungsbedarf, Schalt- geschwindigkeit etc.) unterscheiden. Durch neue Entwurfs- und Fertigungsverfahren haben Anwender heute die Möglichkeit, neben Standardschaltkreisen (Mikrocontroller, Speicherbausteine etc.) auch spezielle anwendungsspezifische integrierte Schaltungen (ASIC) rentabel fertigen zu lassen und einzusetzen

Merkmale der Mikroelektronik

Mikroelektronische Schaltungen zeichnen sich gegenüber konventionellen elektroni- schen Schaltungen durch zwei Hauptmerkmale aus: die Integration und die Miniaturi- sierung.

Unter Integration versteht man das Zusammenfassen aller Bauelemente (Transistoren, aber auch Widerstände, Kondensatoren und andere Halbleiterbauelemente) und Ver- drahtungen zu einer elektronischen Schaltung auf einem gemeinsamen Substrat. Bei mikroelektronischen Schaltungen werden diese zusätzlich in einem gemeinsamen Ar- beitsprozess gefertigt.

Unter Miniaturisierung versteht man in diesem Zusammenhang, dass die einzelnen Bauelemente (und damit die Schaltung als Ganzes) kontinuierlich verkleinert werden. So lagen die Abmessungen für das wichtigste Bauelement, den Transistor, in der An- fangszeit noch bei über zehn Mikrometer. Dem entgegen stehen die Abmessungen von Transistoren (physikalische Gate-Länge) heutzutage von unter 30 nm (2017 ca. 30-24 nm für Intels bzw. Samsungs 14-nm-FinFET-Technik). Durch diese Miniaturisierung lassen sich integrierte Schaltungen mit mehr als einer Milliarde Transistoren auf einem Siliziumstück mit einer Kantenlänge von wenigen (typisch < 10) Millimetern realisie- ren. Darüber hinaus erlaubt der geringere Abstand zwischen den Bauelementen, die Schaltungen bei höheren Taktffequenzen zu betreiben und trotz höherer Rechenleistung die benötigte elektrische Leistung nur geringfügig zu steigern.

Vor der Erfindung der integrierten Schaltungen gab es ebenfalls schon intensive Minia- turisierungsbestrebungen. Schaltungen mit voluminösen Elektronenröhren wurden durch die Entwicklung von Batterieröhren so weit verkleinert, dass beispielsweise trag- bare Funkgeräte möglich wurden. Die Einführung der Transistoren brachte einen weite- ren Miniaturisierungsschritt, mit Dickschichtschaltungen als kleinster Ausführung vor den integrierten Schaltungen.

Miniaturisierung von integrierten Schaltkreisen

Die wesentliche Triebkraft für die Verkleinerung der Strukturen ist die Senkung der Fertigungskosten. Die Fertigung von mikroelektronischen Schaltungen erfolgt in Los- fertigung auf Halbleiterscheiben (Wafer) bestimmter Größe (4 Zoll bis 12 Zoll).

Dabei werden mehrere hundert bis tausend Chips auf einem Wafer gleichzeitig gefer- tigt. Die Fertigungskosten sind hauptsächlich abhängig von der Anzahl der Chips pro Wafer, der Summe der Kosten für die strukturierenden und eigenschaftsändemden Pro- zesse und der Produktionsausbeute (engl yield).

Die Anzahl der Chips pro Wafer lässt sich durch die Verkleinerung der Strukturen (Transistorgrößen, Leitbahnen etc.) erreichen. Um dabei näherungsweise gleiche elek- trische Eigenschaften zu erhalten, müssen alle Dimensionen des Chips (Länge, Breite und auch Schichtdicken) gleich skaliert werden. Die Anzahl der Chips steigt (nähe- rungsweise) mit dem Quadrat des Skalierungsfaktors (die Flächenreduktion ist gleich Längenmaßreduktion zum Quadrat plus bessere Randausnutzung minus nichtlineare Ef- fekte), das heißt, halbe Chiplängen (Skalierungsfaktor 2) bewirkt eine Vervierfachung der Chipanzahl bei gleicher Wafer-Größe.

Die Kosten der Strukturierungsprozesse nehmen jedoch mit steigender Miniaturisierung meist zu. Die Ursache liegt hier zum einen in der steigenden Komplexität der Schaltung und der damit verbundenen steigenden Anzahl notwendiger Prozessschritte, zum ande- ren in höheren Anforderungen an den Fertigungsprozess an sich (Toleranzen, aufwen- digere Fertigungsverfahren etc.).

Eine weitere Kostenreduktion wurde durch größere Wafer erreicht. In den Anfangsjah- ren nutzten die Hersteller noch Wafer mit einem Durchmesser von 2 bzw. 3 Zoll (ent- sprechen etwa 51 bzw. 76 mm). Heute (2009) hingegen haben industriell eingesetzte Standardwafer eine Größe von 200 Millimetern, einige Hersteller wie AMD und Intel nutzen sogar 300-mm-Wafer. Entsprechend der Vergrößerung der Waferfläche stieg auch die Anzahl der Chips pro Wafer. Die Fertigungskosten pro Wafer erhöhten sich jedoch trotz erhöhten Anforderungen nur vergleichsweise gering, sodass die Kosten in der Summe reduziert werden konnten. Eine entsprechende Umstellung erfordert jedoch enorme Investitionen in die Fertigungsanlagen.

Gordon Moore formulierte den Sachverhalt der permanenten Fertigungskostenreduktion bereits 1965 - in der Anfangsphase der Mikroelektronik - in der nach ihm benannten Gesetzmäßigkeit, indem er sagte, dass sich die Anzahl der Transistoren auf einem Chip alle zwölf Monate (später achtzehn Monate) verdopple. Seitdem hat die Mikroelektro- nik tatsächlich sowohl in Hinblick auf Integrationsdichte als auch bei der Verkleinerung der Strukturen kontinuierliche Fortschritte gemacht.

Die hohe konstante Fertigungskostenreduktion in der Mikroelektronik war ein wesentli- cher Innovationsmotor der letzten dreißig Jahre in einer Vielzahl von Branchen - nicht allein in der Elektronik und Computertechnik (siehe Abschnitt Anwendungen). Ob dieser Trend weiter aufrechterhalten werden kann, gilt angesichts der Zunahme der Prozesskosten bei Annäherung an physikalische Grenzen und deren Kompensation durch Einsparung der Chipfläche als nicht sicher. Darüber hinaus lassen sich einige Sonderschaltungstechniken nicht mehr herunterskalieren, etwa solche zur Erzielung hö- herer Spannungen als die Versorgungsspannung(en) des Chips.

Folgen der Miniaturisierung

Die Miniaturisierung von integrierten Schaltkreisen hat neben der Kostensenkung für gleichwertige Produkte noch weitere Auswirkungen Kleinere Transistoren ermöglichen höhere Schaltfrequenzen. Zusammen mit kürzeren Leiterbahnen führt dies zu verkürz- ten Signallaufzeiten. Durch diesen Effekt werden mit der Verkleinerung der Strukturen immer schnellere und damit meist auch leistungsfähigere Schaltungen möglich. Aller- dings gibt es auch gegenläufige Effekte. Wie im vorherigen Abschnitt beschrieben, ver- ringern sich mit der Miniaturisierung auch die Schichtdicken in der Metallisierung (Leitbahnen und Zwischenisolationen). Die verkürzten Abstände zwischen den Leiter- bahnen fuhren zu höheren Koppelkapazitäten, die als Laufzeitbremse wirken (vgl. RC- Glied).

Einen positiven Effekt hat die Schichtverkleinerung der Gate -Isolationsschicht. Die Transistoren können bei verringerter Spannung betrieben werden und weisen somit eine verringerte Verlustleistung auf (die Verlustleistung pro Fläche steigt jedoch ® schlech- tere Wärmeabfuhr). Des Weiteren bedeutet eine höhere Systemintegration (mehr Funk- tionen auf einem Chip) weniger Bauelemente auf einer Leiterplatte und damit erhöhte Zuverlässigkeit durch weniger Lötverbindungen. Ohne Verkleinerung und Integration wäre batteriebetriebene, mobile Elektronik nicht denkbar, wie sie heute allgegenwärtig ist: Mobiltelefon, Notebook, PDA etc.

Geschichte, Entwicklung und Personen der Mikroelektronik Vorgeschichte

Die Mikroelektronik wird häufig mit der Computer- bzw. Rechnertechnik in Verbin- dung gebracht oder sogar gleichgesetzt, vor allem die hohe Verbreitung von integrierten Schaltungen in Form von Prozessoren und Mikrocontrollern in nahezu allen Bereichen des heutigen Lebens hat hierzu beigetragen. Elektronische Rechenmaschinen gab es je- doch schon einige Jahrzehnte vor den ersten Transistoren oder Integrierten Schaltungen. Die ersten elektromechanisch arbeitenden Computer - beispielsweise Colossus oder Mark I - entstandenen im Zweiten Weltkrieg Anfang der 1940er Jahre (vgl. Geschichte der Computer). Der 1946 in Betrieb genommene Großrechner ENIAC (Electronic Nu- merical Integrator and Calculator) war der erste universell einsetzbare rein elektroni- sche Rechner. Diese ersten Rechenmaschinen sind jedoch weder hinsichtlich der Re- chenleistung noch der Größe mit heutigen Personalcomputern vergleichbar.

Was für heutige mikroelektronische Schaltungen der Transistor ist, war für den rund 27 Tonnen schweren ENIAC die Elektronenröhre welcher aus 17.468 Elektronenröhren bestand und zu den Röhrencomputem zählt. Die Grundlagen zur Elektronenröhre geht auf die Entdeckung der Glühemission (1883) von Thomas A. Edison zurück (vgl. Ge- schichte der Elektronenröhre). Die erste Elektronenröhre, eine Röhrendiode, wurde 1904 von John Ambrose Fleming entwickelt und 1906 von Lee de Forest modifiziert. Forest ergänzte die Röhrendiode um eine dritte Elektrode und schuf damit die Trioden- röhre, das Pendant der Röhrenelektronik zum Transistor.

Als Alternative zu den Digitalrechnern gab es bis in die 1970er Jahre Analog- und Hy- bridrechner, die bevorzugt zur Berechnung von Differentialgleichungen eingesetzt wur- den. Beispielsweise arbeitete der Rockefeiler Differential Analyzer mit Tausenden von Elektronenröhren und elektrischen Relais und war bis zum Ende des Zweiten Welt- kriegs die leistungsfähigste Rechenmaschine.

Der Verwendung einer großen Zahl von Elektronenröhren in komplexen Geräten stan- den einige Nachteile dieser Bauteile entgegen. Elektronenröhren waren relativ fehleran- fällig, benötigten eine Aufwärmzeit und wiesen recht hohe Verlustleistungen auf. Zu den wichtigsten Verbesserungszielen der Entwickler nach der Inbetriebnahme der er- sten elektronischen Rechenmaschinen zählten daher eine erhöhte Zuverlässigkeit und die Verringerung der Herstellungskosten. Auch die Miniaturisierung war bereits ein wichtiges Thema, die ersten Rechenmaschi- nen füllten immerhin ganze Räume aus. Elektronenröhren gelten jedoch als kaum mi- niaturisierbar. Dennoch gab es bereits intensive Miniaturisierungsbestrebungen sowohl beim Aufbau der Gesamtschaltung als auch bei den Röhren selbst. Schaltungen mit vo- luminösen Elektronenröhren wurden durch die Entwicklung von Batterieröhren so weit verkleinert, dass beispielsweise tragbare Funkgeräte möglich wurden. Die Einführung der Transistoren brachte einen weiteren Miniaturisierungsschritt, mit Dickschichtschal- tungen als kleinster Ausführung vor den integrierten Schaltungen.

Eine frühe Form des Arbeitsspeichers von Computern war der Kemspeicher, bei dem viele auf Drähte aufgefädelte hartmagnetische Ringe verwendet wurden, die per Strom- stoß ummagnetisiert und ausgelesen werden konnten.

Erfindung des Transistors

Dass die Rechenleistung der damaligen Großrechner selbst mit der von heutigen Ta- schenrechnern nicht mehr mithalten kann, ist vor allem der Entwicklung des Transistors auf Grundlage der sogenannten Halbleiter und der Integrierten Schaltungen zu verdan- ken.

Die Entdeckung des Transistors bzw. des Transistoreffekts werden allgemein den ame- rikanischen Wissenschaftlern John Bardeen, Walter Brattain und William B. Shockley zugeschrieben. Sie erhielten 1956„für ihre Untersuchungen über Halbleiter und ihre Entdeckung des Transistoreffekts“ den Physiknobelpreis. Bardeen, Brattain und Shock- ley gehörten zu einer Arbeitsgruppe der Bell Telephone Laboratories in Murray Hill (New Jersey), die sich mit der Untersuchung von Feldeffekten in Festkörpern beschäf- tigten. Bei einem der durchgefuhrten Versuche am 16. Dezember 1947 beobachtete Brattain eine Stromverstärkung, den Transistoreffekt.

Der Aufbau aus einem mit drei Elektroden kontaktierte n-dotierten Germaniumkristall war der erste funktionierende Bipolartransistor. Die wesentliche Änderung gegenüber früheren Aufbauten war, dass zwei Elektroden sehr nahe (ca. 50 mm) beieinander lagen, wodurch der Transistoreffekt erst ermöglicht wurde. Dieser später als Spitzentransistor bekannt gewordene Transistor konnte nicht reproduzierbar hergestellt werden und seine Funktionsweise war lang nicht hinreichend gut bekannt. Dennoch wurde das Potential dieser Entdeckung von den Verantwortlichen sehr schnell erkannt. Die wesentlichen Vorteile gegenüber der Elektronenröhre waren, dass kein Vakuum und keine Aufwärm- zeit notwendig waren sowie dass keine Wärmeentwicklung beobachtet wurde. Die Möglichkeiten der Miniaturisierung von elektronischen Schaltungen war der Ausgangs- punkt für eine Revolution in der Elektronik, die viele Entwicklungen der Mikroelektro- nik und Computertechnologie erst ermöglichte.

Aus heutiger Sicht waren Bardeen, Brattain und Shockley nicht die ersten oder einzigen Forscher, die sich mit der Entwicklung von Alternativen zur Elektronenröhre auf Basis von Halbleitern beschäftigten. Bereits 1925 (Lilienfeld), 1934 (Heil) und 1945 (Heinrich Welker) wurden Ideen zu einem anderen Transistor, dem Feldeffekttransistor, veröffentlicht. Da zu dieser Zeit die Herstellungsverfahren (z. B. für die Reinigung der Halbleitersubstrate von Fremdstoffen) nicht ausreichend waren, konnten diese Ideen je- doch nicht realisiert werden. Aus diesem und anderen Gründen wurden sie von der Öf- fentlichkeit nicht beachtet und waren auch nur wenigen Fachleuten bekannt.

Der Aspekt des Substratmaterials wird im Zusammenhang mit der Entdeckung des Transistors oft außer Acht gelassen. Für die Funktionsweise von Transistoren ist die Qualität und Reinheit der verwendeten Halbleiter aber wesentlich. Halbleiterkristalle mit einer ausreichend hohen Reinheit herzustellen war zu damaligen Zeiten (vor 1950) ein großes Problem. Viele der Germanium-Kristalle, welche die Arbeitsgruppe bei den Bell Telephone Laboratories (BTL) nutzten, stammten von W. G. Pfann, J. H. Scaff und H. C. Theuerer. Sie wurden nach einer Zonenschmelz-Methode von G. K. Teal und J. B. Little hergestellt.

Unabhängig von der BTL-Arbeitsgruppe entwickelten Herbert F. Matare und Heinrich Welker - damals Angestellte bei Westinghouse in Paris - einen Transistor, der nach ei- nem ähnlichen Prinzip arbeitete. Dieser auch als„Transitron“ bezeichnete Bipolartran- sistor, den sie einige Monate (13. August 1948) später als die Amerikaner vorstellten. Matare gründete 1952 in Deutschland die Firma Intermetall und konnte bereits den er- sten Prototypen eines Transistorradios mit Kopfhörern präsentieren; ein Jahr vor dem ersten kommerziellen, US-amerikanischen Modell.

William Shockley eröffnet 1956 ein Labor (Shockley Semiconductor Laboratory) in Mountain View nah der Stanford Universität in Palo Alto. Das Labor gilt als eine Keimzelle des Silicon Valleys, dabei ist zu bemerken, dass zu dieser Zeit sowohl For- schung als auch Industrie sehr stark an der Ostküste der USA konzentriert waren. Be- reits im September 1957 trennten sich wegen Meinungsverschiedenheiten acht Mitar- beiter (Eugene Kleiner, Jay Last, Victor Grinich, Jean Hoerni, Sheldon Roberts, Julius Blank, Gordon E. Moore und Robert N. Noyce) von Shockley. Sie gründeten mit einem Wagniskapital die Fairchild Semiconductor Corporation. Fairchild Semiconductor war eine der Firmen, die zu dieser Zeit die Entwicklung der Mikroelektronik vorantrieben, so stellte Fairchild bereits 1958 den ersten Silizium- basierten Transistor in Serien- stückzahlen her und war maßgeblich an der Entwicklung des Planartransistors und des integrierten Schaltkreises beteiligt.

Gordon Moore und Robert Noyce gründeten dann 1968 die Firma Intel, die heute (2010) das umsatzstärkste Unternehmen im Bereich der Mikroelektronik ist.

Silizium verdrängt Germanium

Silizium wurde ab Mitte der 1960er Jahre das dominierende Halbleitermaterial, obwohl Germanium in den Anfangsjahren der Halbleiterelektronik führend war. Im Jahr 2009 wurden circa 95 % aller mikroelektronischen Schaltungen auf Basis von Silizium pro- duziert.

Die anfänglichen Vorteile von Germanium waren seine besseren Eigenschaften, wie ein niedriger Schmelzpunkt und eine höhere Ladungsträgerbeweglichkeit (ermöglicht höhe- re Schaltfrequenzen) und es war bis damals einfacher und besser zu reinigen als Silizi- um. Die wichtigsten Gründe für den Erfolg von Silizium sind die guten Eigenschaften der Materialkombination Silizium und Siliziumdioxid. Siliziumdioxid wird als Isolations- material eingesetzt und zeigt neben den guten elektrischen Eigenschaften (Durchbruchfeldstärke, Bandabstand usw.) sehr gute Schichthaftung auf Silizium. Mit der thermischen Oxidation von Silizium steht zudem ein einfaches Herstellungsverfah- ren von Siliziumdioxidschichten auf kristallinem Silizium zur Verfügung, das Silizi- umdioxidschichten mit sehr guten Grenzflächeneigenschaften ermöglicht, wie eine ge- ringe Konzentration an Grenzflächenladungen. Anders als Germaniumdioxid ist Silizi- umdioxid chemisch stabil gegenüber Wasser, das heißt, es löst sich nicht in Wasser.

Damit ermöglicht es die einfache Reinigung der Oberflächen mit Wasser und den Ein- satz diverser nasschemischer Beschichtungs bzw. Strukturierungsverfahren. Der höhere Schmelzpunkt gegenüber Germanium macht das Material allgemein robuster und er- laubt höhere Temperaturen bei der Herstellung, beispielsweise bei einigen Diffusions- und Beschichtungsprozessen.

Die guten Eigenschaften von thermisch hergestelltem Siliziumdioxid ermöglichten die Entwicklung des Planarverfahrens und damit die Entwicklung von integrierten Schalt- kreisen, wie sie heutzutage eingesetzt werden (siehe unten). Diesen wichtigen Erfin- dungen der Mikroelektronik sind weitere signifikante Verbesserungen bei der Herstel- lung und Stabilität von Transistoren durch den Einsatz von thermisch hergestelltem Si- liziumdioxid vorausgegangen.

Dazu gehört neben der Eignung als selektive Dotierungsmaskierung vor allem die pas- sivierende Wirkung sowie die sehr guten elektrischen Eigenschaften der Grenzfläche von thermischem Siliziumdioxid und Silizium. Durch die Passivierung der Oberfläche und der damit verbundenen Verringerung von Grenzflächenladungen und Einflüssen der Umgebung verbesserte sich die elektrische Charakteristik der Transistoren (ihre Kennlinien) sowohl hinsichtlich der Reproduzierbarkeit als auch ihrer Stabilität im Ein- satz. Zudem ermöglichte die verbesserte Isolator-Halbleiter-Grenzfläche nun die Her- stellung erster funktionierender MIS-Feldeffekttransistoren (MIS-FET).Nachdem er- kannt wurde, dass auch durch Alkalimetallverunreinigungen verursachte Ladungen im Siliziumdioxid die elektrischen Eigenschaften von Halbleiterbauelementen massiv ver- schlechtern und dies in der Produktion berücksichtigt wurde, waren die grundlegenden Probleme bei der Herstellung von stabilen Bauelementen auf Basis von Halbleitern ge- löst.

Integrierte Schaltkreise

Den letzten Schritt zur Mikroelektronik stellte der Übergang von Schaltungen aus dis- kreten Halbleiterbauelementen auf einer Leiterplatte hin zu integrierten Schaltkreisen (ICs) dar. Unter integrierten Schaltkreisen versteht man allgemein Schaltungen aus Halbleiterbauelementen (hauptsächlich Transistoren) inklusive der Verdrahtung auf ei- nem Substrat, auch als monolithischer Schaltkreis bezeichnet.

Dieses Konzept wurde Ende der 1950er Jahre unabhängig voneinander von Jack Kilby, Angestellter von Texas Instruments, und Robert Noyce, Gründungsmitglied von Fairchild Semiconductor, erfunden und zum Patent angemeldet. Kilbys Patent aus dem Jahre 1959 zeigte erstmals eine Schaltung aus verschiedenen Komponenten (Transisto- ren und Widerständen) auf einem einzigen Substrat (aus Germanium). Aus dieser Ar- beit heraus entstand das berühmte Kilby- Patent (vom japanischen Patentamt und durch das Obergericht (OG) Tokio wegen fehlender erfinderischer Tätigkeit zurückgewie- sen.). Um dieses Patent wurde rund zehn Jahre vor Gericht gestritten, da Robert N. Noyce einen sehr ähnlichen Schritt erdacht hatte, diesen allerdings später zum Patent anmeldete.

Anders als bei Kilby, der eine Verdrahtung auf dem Substrat nur erdachte, basierte Noyce’ Patent auf den Ideen und Erkenntnissen des Planarverfahrens, das zur gleichen Zeit durch Jean Hoerni (ebenfalls Fairchild Semiconductor) entwickelt wurde. Für die Herstellung wurden bereits fotolithografische Verfahren und Diffusionsprozesse ge- nutzt, die Fairchild Semiconductor kurz zuvor für die Herstellung des ersten modernen Diffusions-Bipolartransistors entwickelt hatte. Unter anderem die technische Machbar- keit einer solchen Verdrahtung revolutionierte die Herstellung von elektronischen Schaltungen. In Folge verstärkten viele Finnen ihre Forschung und Entwicklung in die- sem Bereich und es setzte eine enorme Miniaturisierung ein. 1961 wurde der erste kommerziell erhältliche integrierte Schaltkreis vorgestellt. Er war ein Flipflop der Fir- ma Fairchild Semiconductors, wurde in Planartechnologie hergestellt und bestand aus vier Bipolartransistoren und fünf Widerständen.

Die bipolaren Transistoren wurden rasch durch Feldeffekttransistoren (FETs) ersetzt, meist in der Form von leichter herstellbaren MOSFETs (Metall-Oxid-Halbleiter- Feldeffekttransistor). Das Funktionsprinzip der MOSFETs war zwar schon einige Jahr- zehnte bekannt, die Herstellung erster funktionstüchtiger Exemplare gelang jedoch erst 1960 durch Martin M. Atalla und Dawon Kahng (vgl. Oberflächenpassivierung im Arti- kel Thermische Oxidation von Silizium). Weitere wichtige Entwicklungen in den 1960er Jahren waren die CMOS-Technik (Frank Wanlass, 1963) und erste DRAM- Speicherzelle durch Robert H. Dennard (Thomas J. Watson Research Center/IBM, 1967, siehe DRAM).

Die Komplexität der Schaltungen nahm rasch zu und 1970/71 wurden nahezu gleichzei- tig die ersten Mikroprozessoren von drei Firmen vorgestellt: der Intel 4004, der Texas Instruments (TI) TMS 1000 und der Garrett AiResearch„Central Air Data Computer“ (CADC). Zu dieser Zeit wurden Schaltungen mit Transistordichten mit einigen tausend Bauelementen auf einem Chip realisiert. Diese Entwicklungsstufe wird als Großintegra- tion (engl.: Large Scale Integration, LSI) bezeichnet.

Aufgrund der rasanten Entwicklung der Mikroelektronik waren 1979 Transistordichten erreicht, die ein Vielfaches größer (rund zwei Größenordnungen) waren als bei LSI- Schaltungen. Diese Stufe der ICs wird als Größtintegration (engl.: Very Large Scale In- tegration, VLSI) bezeichnet. Dieser Trend hat sich bis heute (2009) im Wesentlichen erhalten (vgl. Mooresches Gesetz), so dass heute über eine Milliarde Transistoren mit Taktfrequenzen von mehreren Gigahertz möglich sind. Die Größe des Einzelbauteils liegt dabei weit unter einem Quadratmikrometer. Zunehmend werden auch ganze Sy- steme (Kombination mehrerer Baugruppen, wie Prozessoren, Schnittstellenschaltungen und Speichern) auf einem einzelnen Chip realisiert (engl.: System on a Chip, SoC).

Zukünftige Entwicklungen

Unterschreiten die Strukturgrößen die 100-Nanometer-Grenze (2008 sind sie bereits bei 45 nm bzw. 2009 bei 40 nm), so spricht man formal bereits von Nanoelektronik bzw. Nanotechnologie (Definition der US-Regierung). Im engeren Sinne ist jedoch eher ge- meint, dass besondere Materialeigenschaften genutzt werden, die erst auftreten, wenn sich die Strukturabmessungen in der Nähe der Molekül- bzw. der Atomgröße bewegen.

Zu solchen Strukturen zählen zum Beispiel Leitungsbahnen oder Transistoren aus Koh- lenstoffnanoröhren oder Isolationen aus Seif Assembling Monolayem.

Neue Bauelemente werden mit Resonanztunneldioden aufgebaut.

Integrierte Optoelektronik: Angesichts zunehmender Signallaufzeiten insbesondere in langen Verbindungsleitungen (globale Interconnects) großer„System on a Chips“ wird darüber nachgedacht, diese elektrischen Leitungen durch optische Verbindungen zu er- setzen.

Organische Elektronik: Um kostengünstige„Wegwerfelektronik“ (zum Beispiel elek- tronische Preisetiketten) zu realisieren, werden Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Substraten in Dünnschichttechnik aufge- bracht (siehe Organischer Feldeffekttransistor).

Interessante Perspektiven ergeben sich auch daraus, dass aufgrund der fortschreitenden Skalierung die kleinsten in der Mikroelektronik realisierbaren Strukturen in die Grö- ßenordnung von biologischen Molekülen Vordringen. Zurzeit ist eine Konvergenz von Biotechnologie und Mikroelektronik und die Ausbildung einer neuen Fachwissenschaft zu beobachten, die vielfach als Bioelektronik bezeichnet und an erster Stelle die Ent- wicklung neuartiger Biosensoren betreffen wird. Einteilung und Bauelemente

In mikroelektronischen Schaltungen wird eine Vielzahl von Halbleiterbauelementen (vor allem Dioden und Transistoren), elektrischen Widerständen, Kondensatoren und selten auch Induktivitäten eingesetzt und auf einem Halbleiterkristall (Substrat) inte- griert, das heißt zusammengefügt. Eine Einteilung der mikroelektronischen Schaltungen kann auf Grundlage des Anwendungsbereichs in Standardschaltkreise bzw. applikati- onsspezifische Standardprodukte (ASSP) und anwendungsspezifische Schaltkreise (ASIC) sowie auf Grundlage der zu verarbeitenden Signale in analoge und digitale ICs erfolgen.

Standardschaltkreise lassen sich in einer Vielzahl von Anwendungen einsetzen, werden in großer Zahl produziert und sind teilweise durch Standardisierungskonsortien in ihrer Ausprägung festgelegt. Hingegen sind Anwendungsspezifische ICs Schaltkreise, die für eine bestimmte Anwendung (zum Beispiel Motorsteuerung im Auto) entworfen und gebaut sind und von ihrem Funktionsumfang keine andere Anwendung erlauben. Die Abgrenzung dieser beiden Gruppen ist in der Praxis fließend: So können manche als ASIC bezeichnete Schaltkreise dennoch umprogrammiert werden, jedoch nicht für jede beliebige Funktion oder Anwendung.

Bei analogen ICs handelt es sich um integrierte Schaltungen, die analoge Signale - Signale, die sich innerhalb eines bestimmten Wertebereichs kontinuierlich ändern kön- nen, wie Spannungen oder Ströme - direkt verarbeiten können. Ein großes Anwen- dungsfeld sind hier sogenannte Standard-ICs mit niedriger Funktionsintegration, bei- spielsweise Operationsverstärker und Spannungsregler.

Digitale ICs hingegen verarbeiten ausschließlich digitale Signale - Signale, deren Wer- tebereiche eine endliche Anzahl von Signalwerten besitzen. Sie stellen derzeit (2009) die größte Gruppe von Schaltkreisen dar. Typische Vertreter digitaler ICs sind Pro- grammierbare Logikbausteine (engl.: programmable logic devices, PLD), Speicherbau- steine (wie ROM, PROM, DRAM oder Flash-Speicher) und komplexe über Mikrocode programmierbare Schaltungen wie digitale Signalprozessoren, Mikxocontroller oder Mikroprozessoren.

Außerhalb dieser groben Einteilung in analoge und digitale ICs gibt es noch weitere Schaltkreise, wie die an der Schnittstelle zwischen dem analogen und digitalen Bereich liegenden Digital-Analog- bzw. Analog-Digital-Umsetzer sowie Frequenz- Spannungs- Wandler und spannungsgesteuerte Oszillatoren (Spannungs-Frequenz- Wandler). Sen- soren werden auch oft direkt in die Mikroelektronik mit integriert, oft zusammen mit ih- rer Anpassungselektronik sowie ggf. einem digitalen Interface zum Anschluss an einen Mikroprozessor. Relativ einfach sind Temperatursensoren.

Große Mengen werden heute an optischen Sensoren hergestellt, als Bildsensoren oder als Teile von optoelektronischen Anordnungen.

Die verschiedenen Formen der Bauelementintegration erfordern unterschiedliche Mon- tagekonfigurationen, um die einzelnen Bauelemente zu elektronischen Baugruppen zu vereinen. Dadurch entstanden eine Vielzahl komplexer und differenzierter Aufbau- und Verbindungstechnologien. So unterscheiden sich Bauelemente nach der Montagekonfi- guration in gehäuste, auf die Leiterplatte aufsetzbare SMDs oder steckbare bedrahtete Bauelemente (THT) und in ungehäuste Nacktchips, die direkt oder mit einem Zwi- schenverdrahtungsträger auf denVerdrahtungsträger aufgesetzt werden. Heute werden die meisten Bauelemente als SMDs montiert. Jedoch gibt es Bauelemente, für die noch keine aufsetzbare SMD- Bauformen verfügbar sind, oder bei denen durch die SMD- Bauform die elektrische Belastbarkeit des Bauelements zu sehr eingeschränkt wird. In diesen Fällen werden die älteren THT-Bauformen weiterhin verwendet.

Anwendungen

Bauelemente der Mikroelektronik wurden ursprünglich für die Anforderungen der Raumfahrt nach kleinen und leichten Bauteilen entwickelt. Sie sind heute in einer Viel- zahl technischer Geräte und Einrichtungen zu finden: In Computern sind essenzielle Bestandteile als mikroelektronische integrierte Schalt- kreise ausgeführt: die zentrale Recheneinheit genauso wie der Arbeitsspeicher und eine Vielzahl unterstützender Controller und Schnittstellen-Bausteine.

In der industriellen Fertigung finden sich mikroelektronische Bauteile auch zum Bei- spiel in den Maschinensteuerungen.

In Geräten der Unterhaltungselektronik übernehmen integrierte Schaltungen neben der gesamten Steuerung der Geräte auch die Dekodierung komprimierter Filme beim DVD- Abspielgerät oder die Ansteuerung der einzelnen Bildpunkte eines Flachbildschirms.

In allen Arten von Fahrzeugen wird die Mikroelektronik eingesetzt, unter anderem zur Motorsteuerung oder dazu, im richtigen Moment Sicherheitsfunktionen, wie Airbags, auszulösen. Für diesen Bereich müssen die mikroelektronischen Bausteine übrigens er- höhte Qualitätskriterien erfüllen, zum Beispiel den automotiven Temperaturbereich (engl automotive temperature ränge).

Moderne Kommunikationstechnik ist ebenfalls ohne Mikroelektronik nicht mehr denk- bar, das gilt sowohl für die klassische Telefonie, als auch für die Datenkommunikation und den Mobilfunk.

An dieser Stelle kann nur eine exemplarische Auswahl genannt werden - es gibt sowohl in den genannten Gebieten eine Vielzahl weiterer Anwendungen als auch eine Reihe hier nicht genannter Anwendungsgebiete, wie Medizintechnik, Gebäudetechnik und vieles mehr.

Entwicklung mikroelektronischer Bauelemente

Siehe auch : Chipentwurf

Auf einem Die, einem einzelnen ungehäusten Halbleiter-Chip, können mehrere Milliar- den Transistoren und anderen Grundelemente der mikroelektronischen Schaltungen aufgebracht werden. Mit rechnergestützten Hilfsmitteln wird der Entwurf eines funkti- onsfähigen Chips unterstützt. Die einzelnen Schritte, die in der Regel arbeitsteilig und mit abnehmender Abstraktion mehrfach gegangen werden, sind: Design, Simulation und Verifizierung. Den Abschluss bildet die Fertigungsvorbereitung. Da der Produktion eines Chips sehr hohe Einmalkosten (engl non recurring engineering costs, NRE- Kosten) vorausgehen (zum Beispiel Maskenkosten, siehe Fotolithografie) und auch eine Reparatur eines integrierten Schaltkreises nur sehr eingeschränkt möglich und produk- tiv nicht praktikabel ist, ist es von großer Bedeutung, dass der Entwurf nur mit wenigen Überarbeitungen (sog. Redesigns) zum gewünschten Produkt führt.

Das hat zur Folge, dass zu einem erheblichen Anteil Simulations- und Verifikations- schritte den Entwicklungsverlauf bestimmen - im Jahre 2004 machen sie etwa die Hälf- te des Entwicklungsaufwandes für den Schaltkreis aus - mit steigender Tendenz. Um diese Kosten auf eine große Anzahl von Chips zu verteilen, wird versucht, Teilschritte der Entwicklungsarbeit auf mehrere Projekte zu verteilen. So können beispielsweise Logikgatter oder ganze Mikroprozessor- Architekturen als getestete Bibliotheken einge- kauft und in die eigene Entwicklung integriert werden. Eine weitere Möglichkeit be- steht darin, FPGAs (Digitaltechnik) und FPAAs (Analogtechnik) zu verwenden. Diese Bauelemente beinhalten frei programmierbare digitale und analoge Schaltkreise, die nur noch entsprechend dem eigenen Schaltungsdesign konfiguriert werden müssen.

In vielen Fällen beschreibt der Chipentwickler die gewünschte Schaltung bei digitalen Schaltungsblöcken nur noch in einer„Hochsprache“ (vergleichbar der höheren Pro- grammiersprache in der Informatik, übliche Ausprägungen: VHDL, Verilog), der Com- puter errechnet daraus die Schaltnetze (Synthese, engl synthesis) und platziert die Transistoren (unter menschlicher Mitwirkung und Kontrolle).

Für analoge Schaltungen werden die entworfenen Schaltungen in sehr vielen Simulati- onsläufen (beispielsweise mit SPICE oder ähnlich) charakterisiert, wobei viele ver- schiedene Kombinationen für Betriebstemperaturen und -Spannungen, Prozessvariatio- nen und Ähnliches simuliert werden. Häufig werden auch statistische Variationen mit- hilfe einer Monte-Carlo-Analyse simuliert. Für Digital- wie für Analogschaltungen kann das Layout extrahiert werden, um parasitäre Elemente in der Simulation zu be- rücksichtigen und somit realistischere Ergebnisse zu erreichen.

Die fortschreitende Miniaturisierung treibt sowohl die Strukturierungsprozesse als auch die realisierten Funktionsbausteine, wie Transistoren und Leiterbahnen, an ihre physi- kalischen Grenzen. Um Ersterem zu begegnen, wird im Entwurfsprozess in steigendem Umfang Software eingesetzt, die die physikalischen Grenzeffekte, wie zum Beispiel die optische Beugung bei der Fotolithografie simuliert und den Schaltungsentwurf so modi- fiziert, dass diese Effekte ausgeglichen werden (engl optical proximity correction, OPC). Um den Miniaturisierungseffekten bei den Bauelementen entgegenzuwirken, kommen fortlaufend neue Simulations- und Modellierungsverfahren zum Chipentwurf- sprozess hinzu: zum Beispiel Simulationen des Spannungsabfalls in langen Versor- gungsnetzen (engl. IR drop), Simulation der parasitären kapazitiven Kopplung benach- barter Leiterbahnen, Werkzeuge zur statischen Analyse der Zeitverhältnisse in einer Digitalschaltung (engl static timing analysis, STA) usf.

Um Prototypen eines neuen Chips einigermaßen kostengünstig zu fertigen, kann man die Layouts mehrerer Chips auf einem Wafer zusammenfugen (engl.: multi project wafer, MPW), da sich so die Masken- und Fertigungskosten für die vergleichsweise kleinen Prototypenstückzahlen auf mehrere Projekte verteilen lassen.

Herstellung von mikroelektronischen Schaltkreisen

Siehe auch: Integrierter Schaltkreis-Herstellung und Halbleitertechnik

Die Herstellung von mikroelektronischen Schaltkreisen erfolgt durch Verfahren der Halbleitertechnik (Herstellung der Bauelemente auf einem Substrat und bei monolithi- schen Schaltkreisen die Verdrahtung) und Aufbau- und Verbindungstechnik (Gehäu- sung und Verdrahtung/Verknüpfung von mikroelektronischen und nichtelektronischen Komponenten zu einem System).

Dabei werden auch Verfahren der Dünn- und Dickfilmtechnik eingesetzt, bei letzteren werden die Bauteile auf einen Film aufgebracht oder eingebettet und verbunden, sie ha- ben nur noch für Spezialanwendungen (Hochfrequenztechnik) Bedeutung. Die Ferti- gung erfolgt in extrem sauberer Umgebung, sogenannten Reinräumen, mit einer sehr geringen Dichte von Staubpartikeln. Dies ist nötig, weil die herzustellenden Strukturen im Mikro- und Nanometerbereich liegen und selbst kleinste Partikel(< 0,1 mm) bereits Herstellungsfehler verursachen können, die den Ausfall eines kompletten Schaltkreises zur Folge haben. Der Fertigungsprozess selbst kann (neben Funktionstests) in drei Be- reiche aufgeteilt werden: die Substratherstellung sowie die Fertigung der Bauelemente (Transistoren, Dioden usw.), das sog. Front- End, und deren„Verpackung“ in Gehäu- sen, dem sog. Back-End.

Substratherstellung

Die Fertigung von integrierten Schaltungen erfolgt auf sogenannten Wafern (einkristal- line Halbleiterscheiben), sodass mehrere integrierte Schaltungen parallel gefertigt und Kosten gesenkt werden können. Auf einem Wafer werden Hunderte und bei einfachen Strukturen (zum Beispiel Einzeltransistoren) Tausende identische integrierte Schaltkrei- se parallel hergestellt.

Damit die hohen Anforderungen zur Fertigung von integrierten Schaltungen erfüllt werden können, ist es notwendig, das Substrat in Form von hochreinen Einkristallen herzustellen. Die überwiegenden Mehrzahl (mehr als 99 %) der integrierten Schaltkrei- se nutzt als Substratmaterial den Halbleiter Silizium. Für sehr hochfrequente oder opti- sche Anwendungen kommen auch andere Materialien wie Galliumarsenid zum Einsatz. Für spezielle Anwendungen wird auch Silizium auf dem isolierenden Substrat Saphir verwendet (engl.: Silicon on Sapphire, SOS).

Im Falle des Siliziums wird zunächst aus einer hochreinen Siliziumschmelze (vgl. Ge- winnung von Reinsilizium) ein einkristalliner Zylinder (Ingot) gezogen. Dazu wird vor- nehmlich das sogenannte Czochralski -Verfahren (CZ- Verfahren) genutzt. Ein alternati- ves Verfahren ist das Zonenschmelzen, was auch zur weiteren Reinigung der CZ-Ingots eingesetzt werden kann; für einige Spezialanwendungen sind höhere Reinheitsgrade notwendig als ein Fremdatom auf 109 Atomen der CZ-Ingots. Die Ingots werden in Abhängigkeit vom Durchmesser in 0,5-1, 5 mm dünne Scheiben, die sog. Wafer, zer- sägt. Die heute in der Massenproduktion verwendeten Siliziumwafer haben Durchmes- ser von 150, 200 oder 300 mm (häufig auch als 6, 8 oder 12 Zoll bezeichnet). Sie erhal- ten durch verschiedene Ätz-, Schleif- und Polierprozesse eine nahezu perfekte ebene Oberfläche mit Unebenheiten in der Größenordnung von weniger als einem Nanometer, das heißt mit Oberflächenrauheiten von nur wenigen Atomlagen.

Das sogenannte Front-End bei der Fertigung von integrierten Schaltkreisen beschäftigt sich mit der Herstellung der elektrisch aktiven Bauelemente (Transistoren, Kondensato- ren usw.), dem sogenannten Front-End-of-Line (FEOL), und deren Verdrahtung (Metal- lisierung), dem sogenannten Back-End-of-Line (BEOL). Zum Einsatz kommen ver- schiedenste Verfahren der Halbleitertechnik zum Schichtaufbau (Epitaxie, Sputterdepo- sition, Bedampfen, CVD usw.), Schichtabtrag, und Strukturierung (Fotolithografie). Des Weiteren werden Verfahren zur Änderung von Materialeigenschaften (zum Bei- spiel Dotierung) eingesetzt.

Nach der Metallisierung erfolgt heutzutage (2009) auch oft ein stichprobenartiges oder komplettes Prüfen der Schaltkreise mit Nadeltestern im Scheibenverbund, vor allem zur Bestimmung der Ausbeute und als Rückmeldung zu technologischen Parametern. Da- mit spart man sich das Verkappen des teilweise erheblichen Ausschusses. Für die Be- stimmung von technologischen Parametern erfolgt die Prüfung (beispielsweise Schicht- dickenprüfung) meist direkt nach dem jeweiligen Prozess, hier ist es mitunter wichtig, auch die jeweiligen Anlagen mitzuerfassen, da auch baugleiche Anlagen mit denselben Parametern Abweichungen erzeugen, die außerhalb des Toleranzbereichs liegen kön- nen.

Back-End

Siehe auch:„Back-End“ Artikel Integrierter Schaltkreis

Im nachfolgenden Fertigungsabschnitt, dem Back-End, werden die ICs anschließend vereinzelt. Dies erfolgt im Allgemeinen durch Sägen (selten auch durch Ritzen und Brechen) des Wafers zu Dies (den sogenannten Chips). Beim nachfolgenden Verpacken (engl packaging) werden die einzelnen ICs dann in ein Gehäuse eingebracht und kon- taktiert, das sogenannte Bonden. Dabei kommen je nach Typ unterschiedliche Verfah- ren zum Einsatz, beispielsweise Chipbonden oder Drahtbonden.

Das Verkappen (Einhausen) dient zur hermetischen Versiegelung gegenüber Umwelt- einflüssen - für rein elektrische Schaltkreise muss das Gehäuse gas- und lichtdicht sein - sowie zur besseren Verwendbarkeit: entweder wird der Chip samt Bonddrähten in ei- nem Hohlraum (Blech, Keramik, ggf. mit Fenster) eingeschlossen oder mit Kunstharz umhüllt (eingegossen). Die Anschlüsse nach außen werden beispielsweise als Dual in- line package (DIL) oder Plastic Leaded Chip Carrier (PLCC) ausgeführt. Hochkomple- xe Schaltkreise (meist für mobile Anwendungen) werden neuerdings (2009) auch ohne Sockelgehäuse eingesetzt und direkt auf die jeweiligen Platinen gelötet (vgl. Ball Grid Array).

Zum Abschluss erfolgt nochmals ein Funktionstest, dabei werden zugesicherte Eigen- schaften an allen Schaltkreisen geprüft. Die Typprüfung erfolgt stichprobenartig oder nur in der Entwicklungsphase. Die Stückprüfung dient dem Sortieren in Schaltkreise unterschiedlicher Güteklassen (zum Beispiel nach Offset-Spannung bei Operationsver- stärkern). Prüfergebnisse und die Art der Verkappung bestimmen das Einsatzgebiet. So werden hohe Qualitäten für erweiterte Einsatztemperaturen und Umweltanforderungen gefertigt (sog. MIL-Standard für militärische und Raumfahrt- Anwendungen). Höhere Toleranzen und Plastik-Verkappung kommen für Massenanwendungen (Konsumgüter) infrage.

Neben den monolithischen Schaltkreisen gibt es auch sogenannte Dickschicht- Hybrid- schaltkreise. Dabei werden einzelne Funktionen der Schaltung in unterschiedlichen Halbleiterchips realisiert und auf einem zusätzlichen Trägermaterial aufgebracht und drucktechnisch im Siebdruckverfahren verdrahtet, auf diese Weise können neben Ver- bindungsleitungen auch passive Bauelemente realisiert werden. Wenn besonders kompakte Bausteine erforderlich sind, beispielsweise in Mobiltelefo- nen, werden auch mehrere Einzelschaltkreise auf kürzestem Weg elektrisch verbunden und in einem gemeinsamen Gehäuse untergebracht, siehe bei Multi -Chip-Modul.

Funktionstest

Um schon frühzeitig auf Prozessschwankungen zu reagieren, fehlerhafte Prozesse ge- gebenenfalls zu korrigieren oder gar Wafer oder Lose aus der Produktion zu nehmen, werden die noch unfertigen ICs nach vielen Prozessschritten getestet. Im Front-End handelt es sich dabei meist um Stichproben.

Nach dem Front -End werden in der Regel alle ICs vor der Weiterverarbeitung auf ihre Funktion getestet. Teilweise sind bestimmte Funktionen (Hochfrequenzschaltungen oder später nicht auf Pins herausgeführte Anschlüsse des Chips) nur auf dem Die test- bar. Vor allem muss aus Kostengründen verhindert werden, dass nicht funktionsfähige ICs im nachfolgenden Herstellungsprozess weiterbearbeitet werden.

Schließlich wird auch der gehäuste Chip vor der Ablieferung einem endgültigen Test unterzogen, um Fehler in der Back-End-Fertigung festzustellen. Auch werden einige Eigenschaften getestet, die sich durch das Packaging verändern bzw. deren Messung ohne Gehäuse nicht möglich ist, wie zum Beispiel das Bonding oder bestimmte Hoch- frequenzeigenschaften. Der gehäuste Chip kann dann zur Leiterplattenbestückung ge- hen.

Obwohl diese Messungen auf speziellen Testsystemen (Automatic Test Equipment) vollautomatisch ablaufen, haben die damit verbundenen Kosten bei hochintegrierten Prozessorchips bereits nahezu die Herstellungskosten erreicht. Dies liegt vor allem dar- an, dass nur bedingt Skaleneffekte beim Testen greifen (eine Parallelisierung ist bei- spielsweise nur bei reinen Digitalschaltungen möglich) und neuere ICs immer mehr Funktionen beinhalten, die nacheinander getestet werden müssen. Ökonomie

Der Industriezweig, der sich mit der Herstellung von mikroelektronischen Bauteilen be- schäftigt - die Halbleiterindustrie - zeigt zwei Eigenschaften, die ihn von anderen un- terscheidet.

Große Skaleneffekte: Halbleiterfabriken für die Massenfertigung von Bausteinen der jeweils kleinstmöglichen Strukturgrößen sind erst ab einer gewissen Größe rentabel. Weiterhin sind diese Fabriken um Größenordnungen teurer als vergleichbare Ferti- gungsstätten anderer Branchen: heute (2004) liegen die Kosten für Bau und Ausrüstung einer Hochvolumenfabrik auf dem Stand der Technik bei etwa 2 Milliarden USD.

Beides zusammen führt zu dem sogenannten Schweinezyklus: Es gibt nur eine ver- gleichsweise geringe Anzahl an aktuellen Halbleiterfabriken weltweit. Wenn es der Branche gut geht, das heißt in der Regel, wenn das Angebot an Halbleiterbausteinen ge- ringer ist als die Nachfrage, baut sie ihre Fertigungskapazitäten aus, weil die meisten Unternehmen nur dann die Summen für den Ausbau aufbringen können. Jede neue Fa- brik, die in Produktion geht, erhöht das Weltmarktvolumen verfügbarer Bausteine gleich um Prozentpunkte, da sie ja aus Rentabilitätsgründen sehr groß sein müssen. Der schlagartige Anstieg verfügbaren Volumens führt zu einem entsprechend starken Preis- verfall der Bauelemente, der sich wieder einschwingt, sobald die Nachfrage das Ange- bot wieder eingeholt hat.

Durch den Preisverfall sind viele Unternehmen eine Zeit lang nicht in der Lage ihre Fertigungskapazitäten auszubauen - es läuft auf die nächste Verknappung des Angebo- tes zu. Dann wiederholt sich der Zyklus.

Zuschreibung strategischer Bedeutung: Viele Staaten schreiben der Halbleiterindustrie strategische Bedeutung zu. Meist begründet sich das in dem„Keimzelleneffekt“ für an- dere Hochtechnologien. Im Umfeld von Halbleiterindustrien entwickeln sich nicht nur hochqualifizierte Zulieferer aus der Chemie und dem Anlagenbau, sondern auch aus den Abnehmerindustrien der Bauelemente, zum Beispiel die Computer- und Elektronik- Industrie. In einigen Fällen wird die strategische Bedeutung auch militärisch begründet. So schätzen die USA die Bedeutung der Mikroelektronik für Rüstungsprogramme so wichtig ein, dass sowohl Geräte zur Herstellung aktueller ICs als auch die Schaltungs- entwürfe und sogar die Schaltungsentwicklungssoftware Gegenstand ihrer Exportkon- trolllisten sind. Diese hoch eingeschätzte Bedeutung hat zur Folge, dass eine Vielzahl von Staaten die Ansiedelung der Halbleiterindustrie in vielerlei Weise fordern: von An- schubfinanzierungen, besonderen Steuergestaltungen, staatlichen Kreditgarantien bis zu staatlich geförderter Forschung an universitären und industriellen Forschungszentren etc.

Diese Förderungen sind auch gelegentlich Gegenstand von ökonomischen Auseinander- setzungen zwischen Staaten und Unternehmen - so geschehen zuletzt im Jahre 2003. Damals wurde dem DRAM-Hersteller Hynix vorgeworfen über die Maßen vom südko- reanischen Staat in seiner Finanzkrise gestützt worden zu sein. Die Wettbewerber von Hynix erwirkten daraufhin Strafzölle auf den Import von Produkten dieses Unterneh- mens in den USA, der Europäischen Union[34] und zuletzt Japan, wogegen Südkorea protestierte.

Geschäftsmodelle: Wie in vielen anderen Branchen auch gibt es den Vollhersteller - In- tegrated Device Manufacturer (IDM) genannt. Ein IDM erstellt das Produktdesign, entwickelt die Fertigungstechnologie, fertigt das Bauteil und verkauft es selbst.

Daneben gibt es jedoch auch noch die„Fabless Design Houses“ und„Foundries“. Fab- less Design Houses erstellen das Produktdesign entsprechend den Vorgaben bzw. in Kooperation mit der Foundry, die es später fertigen wird, und verkaufen das fertige Produkt. Die Foundry entwickelt die Fertigungstechnologie, stellt ihren Kunden techno- logiespezifische Hilfsmittel zum Chipentwurf (EDA) bereit und fertigt die ICs.

Kombinationen dieser Geschäftsmodelle und Nischenmodelle sind in der Praxis auch zu finden. 34. Optoelektronik

Der Begriff Optoelektronik (manchmal auch Optronik oder Optotronik genannt) ent- stand aus der Kombination von Optik und Halbleiterelektronik und umfasst im wei- testen Sinne alle Produkte und Verfahren, die die Umwandlung von elektronisch er- zeugten Daten und Energien in Lichtemission ermöglichen und umgekehrt.

Hintergrund ist z. B. der Versuch, die Vorteile der elektronischen Datenaufbereitung und Verarbeitung mit den Vorteilen der schnellen und elektromagnetisch und elektro- statisch unstörbaren breitbandigen Übertragungseigenschaft des Lichtes zu kombinie- ren. Gleichzeitig fällt hierunter auch die Wandlung von elektrischer Energie in Licht und umgekehrt auf der Basis der elektronischen Halbleitertechnik, wobei das erzeugte Licht sich entweder im Freiraum oder in festen lichtdurchlässigen Medien (Lichtwellenleiter wie z. B. Glasfaserkabel) ausbreiten kann oder wie in der optischen Speichertechnik auch zur Speicherung elektronisch erzeugter Daten dienen kann.

Die Optoelektronik ist dabei fester Bestandteil des täglichen Lebens geworden, da sie Komponenten wie z. B. Laser, Bildschirme, Rechner, optische Speicher und Datenträ- ger umfasst.

Erster und bis heute gültiger Systemvorschlag zur optoelektronischen Nachrichtenüber- tragung mittels Laserdiode, Glasfaser und Photodiode von Manfred Börner, 1965

Optoelektronische Bauteile sind Bauteile, die als Schnittstelle zwischen elektrischen und optischen Komponenten wirken oder auch Geräte, die solche Bauteile enthalten. Damit sind meist (aber nicht ausschließlich) mikroelektronische Bauteile gemeint, die auf der Basis von Halbleitern funktionieren.

Die Bauelemente der Optoelektronik lassen sich in Aktoren (Sender) und Detektoren (Empfänger) unterteilen. Optoelektronische Aktoren sind Halbleiterbauelemente, die aus Strom Licht erzeugen, also Laser- und Leuchtdioden. Das Emissionsspektrum kann sich dabei sowohl im sichtbaren als auch im unsichtbaren (UV oder Infrarot) Spektral- bereich befinden. Optoelektronische Detektoren sind die Umkehrbauelemente der Akto- ren, also Fotowiderstand, Photodiode (auch Solarzelle) und Fototransistor. Lichtsenso- ren können auch als integrierte Schaltung aufgebaut werden, z. B. als CCD-Sensor. Auch Photomultiplier werden zur Optoelektronik gezählt. Werden Aktor und Detektor als System betrieben, resultiert daraus ein optischer Sensor, ein sogenannter Optosen- sor. Das Fachgebiet wird analog dazu als Optosensorik bezeichnet. Die einfache Kom- bination aus einem Aktor und Detektor in einem Bauteil wird als Optokoppler bezeich- net.

Neben diesen gibt es noch weitere Bauteile die bei der Übertragung, Verstärkung oder Modulation von Signalen benötigt werden. Die Übertragung von optischen Signalen kann durch den freien Raum oder in Verbindung mit Wellenleiter und optischen Schalt- kreise (vgl. integrierte Optik) erfolgen. Optische Modulatoren sind Bauelemente, die Licht eine definierte Charakteristik aufprägen (modulieren). Dies kann beispielsweise eine zeitliche oder räumliche Amplituden- oder Phasenvariation sein. Dazu gehören zum Beispiel optische Verstärker, optoelektronische Multiplexer sowie magnetorestrik- tive optische Mikroreflektoren.

35. Halbleiter

Halbleiter sind Festkörper, deren elektrische Leitfähigkeit zwischen der von elektri- schen Leitern (>104 S/cm) und der von Nichtleitern (<10-8 S/cm) liegt. [1 ] Da sich die Grenzbereiche der drei Gruppen überschneiden, ist der negative Temperaturkoeffizient des spezifischen Widerstandes ein weiteres wichtiges Merkmal von Halbleitern, das heißt, ihre Leitfähigkeit nimmt mit steigender Temperatur zu, sie sind sogenannte Heiß- leiter. Ursache hierfür ist die sogenannte Bandlücke zwischen dem Valenz- und dem Leitungsband.

Nah am absoluten Temperaturnullpunkt sind diese voll- bzw. unbesetzt und Halbleiter daher Nichtleiter. Es existieren im Gegensatz zu Metallen primär keine freien Ladungs- träger, diese müssen erst z. B. durch thermische Anregung entstehen. Die elektrische Leitfähigkeit von Halbleitern steigt aber steil mit der Temperatur an, so dass sie bei Raumtemperatur, je nach materialspezifischem Abstand von Leitungs- und Valenzband, mehr oder weniger leitend sind. Des Weiteren lassen sich durch das Einbringen von Fremdatomen (Dotieren) aus einer anderen chemischen Hauptgruppe die Leitfähigkeit und der Leitungscharakter (Elektronen- und Löcherleitung) in weiten Grenzen gezielt beeinflussen.

Halbleiter werden anhand ihrer Kristallstruktur in kristalline und amorphe Halbleiter unterschieden, siehe Abschnitt Einteilung. Des Weiteren können sie verschiedene che- mische Strukturen besitzen. Am bekanntesten sind die Elementhalbleiter Silicium und Germanium, die aus einem einzigen Element aufgebaut sind, und Verbindungshalblei- tem wie zum Beispiel der III-V -Verbindungshalbleiter Galliumarsenid. Des Weiteren haben in den letzten Jahrzehnten organische Halbleiter an Bedeutung und Bekanntheit gewonnen, sie werden beispielsweise in organischen Leuchtdioden (OLEDs) eingesetzt. Es gibt allerdings auch noch weitere Stoffe mit Halbleitereigenschaften, so z. B. metall- organische Halbleiter wie auch Materialien, die durch Nanostrukturierung Halbleiterei- genschaften bekommen. Ganz neu sind ternäre Hydrid- Verbindungen wie Lithium- Barium-Hydrid (LiBaH3).

Bedeutung haben Halbleiter für die Elektrotechnik und insbesondere für die Elektronik, wobei die Möglichkeit, ihre elektrische Leitfähigkeit durch Dotierung zu beeinflussen, eine entscheidende Rolle spielt.

Die Kombination unterschiedlich dotierter Bereiche, z. B. beim p-n-Übergang, ermög- licht sowohl elektronische Bauelemente mit einer richtungsabhängigen Leitfähigkeit (Diode, Gleichrichter) oder einer Schalterftmktion (z. B. Transistor, Thyristor, Photodi- ode), die z. B. durch Anlegen einer elektrischen Spannung oder eines Stroms gesteuert werden kann (vgl. Arbeitszustände in Metall-Isolator-Halbleiter-Struktur).

Weitere Anwendungen neben dem Transistor sind: Heißleiter, Varistoren, Strahlungs- sensoren (Photoleiter, Fotowiderstände, Photodioden beziehungsweise Solarzellen), thermoelektrische Generatoren, Peltierelemente sowie Strahlungs- beziehungsweise Lichtquellen (Laserdiode, Leuchtdiode). Der Großteil aller gefertigten Halbleiterbau- elemente ist Silicium-basiert. Silicium hat zwar nicht die allerbesten elektrischen Ei- genschaften (z. B. Ladungsträgerbeweglichkeit), besitzt aber in Kombination mit sei- nem chemisch stabilen Oxid deutliche Vorteile in der Fertigung (siehe auch thermische Oxidation von Silizium).

Geschichte

Stephen Gray entdeckte 1727 den Unterschied zwischen Leiter und Nichtleiter. Nach- dem Georg Simon Ohm 1821 das Ohmsche Gesetz aufstellte, womit die Proportionali- tät zwischen Strom und Spannung in einem elektrischen Leiter beschrieben wird, konn- te auch die Leitfähigkeit eines Gegenstandes bestimmt werden.

Der Nobelpreisträger Ferdinand Braun entdeckte den Gleichrichtereffekt der Halbleiter 1874. Er schrieb:„...bei einer großen Anzahl natürlicher und künstlicher Schwefelme- talle... der Widerstand derselben war verschieden mit Richtung, Intensität und Dauer des Stroms. Die Unterschiede betragen bis zu 30 Prozent des ganzen Wertes.“ Er be- schrieb damit erstmals, dass der Widerstand veränderlich sein kann.

Greenleaf Whittier Pickard erhielt 1906 das erste Patent für eine auf Silicium basieren- de Spitzendiode zur Demodulation des Trägersignals in einem Detektorempfänger. An- fangs wurde im gleichnamigen Empfänger („Pickard Crystal Radio Kit“) meistens Bleiglanz als Halbleiter verwendet, wobei in den 1920er Jahren robustere und leistungs- fähigere Dioden auf Basis von Kupfersulfid-Kupfer- Kontakten entstanden.

Die Funktionsweise des auf einem Halbleiter-Metall-Übergang basierenden Gleichrich- tereffektes blieb trotz technischer Anwendung über Jahrzehnte ungeklärt. Erst Walter Schottky konnte 1939 die theoretischen Grundlagen zur Beschreibung der nach ihm be- nannten Schottky-Diode legen. Das erste Patent zum Prinzip des Transistors wurde 1925 von Julius Edgar Lilienfeld (US-Physiker österreichisch-ungarischer Abstammung) angemeldet

Lilienfeld beschrieb in seiner Arbeit ein elektronisches Bauelement, welches im wei- testen Sinne mit heutigen Feldeffekttransistoren vergleichbar ist, ihm fehlten seinerzeit die notwendigen Technologien, Feldeffekttransistoren praktisch zu realisieren.

Als 1947 in den Bell Laboratories die Wissenschaftler John Bardeen, William Bradford Shockley und Walter Houser Brattain zwei Metalldrahtspitzen auf ein Germaniumplätt- chen steckten und somit die p-leitende Zone mit der zweiten Drahtspitze mit einer elek- trischen Spannung steuern konnten, realisierten sie damit den Spitzentransistor (Bipolartransistor). Dies brachte ihnen den Physik-Nobelpreis von 1956 ein und be- gründete die Mikroelektronik.

Die Herstellung von hochreinem Silicium gelang 1954 Eberhard Spenke und seinem Team in der Siemens & Halske AG mit dem Zonenschmelzverfahren.

Dies brachte Mitte der 1950er Jahre zusammen mit der Verfügbarkeit eines Isolations- materials (Siliciumdioxid) mit günstigen Eigenschaften (nicht wasserlöslich wie Ger- maniumoxid, einfach herstellbar usw.) den Durchbruch von Silicium als Halbleiterma- terial für die Elektronikindustrie und etwa 30 Jahre später auch für die ersten Produkte der Mikrosystemtechnik.

Für die Herstellung von integrierten Schaltkreisen wird heute (2009) fast ausschließlich mit dem Czochralski -Verfahren kostengünstiger hergestelltes Silicium verwendet.

Alan Heeger, Alan MacDiarmid und Hideki Shirakawa zeigten 1976, dass bei einer Do- tierung von Polyacetylen - einem Polymer, das im undotierten Zustand ein Isolator ist - mit Oxidationsmitteln der spezifische elektrische Widerstand bis auf 10-5 W-m (Silber: ~ 10-8 W-m) sinken kann. Im Jahre 2000 erhielten sie dafür den Nobelpreis.

Die in der Mikroelektronik verwendeten klassischen, das heißt kristallinen elektroni- sehen, Halbleiter lassen sich in zwei Gruppen einordnen, den Elementhalbleitem und den Verbindungshalbleitern. Zu den Elementhalbleitem zählen Elemente mit vier Va- lenzelektronen, beispielsweise Silicium (Si) und Germanium (Ge). Die Gruppe der Verbindungshalbleiter umfasst chemische Verbindungen, die im Mittel vier Valen- zelektronen besitzen. Dazu zählen Verbindungen von Elementen der III. mit der V. Hauptgruppe des Periodensystems (III-V -Verbindungshalbleiter), wie Galliumarsenid (GaAs) oder Indiumantimonid (InSb), und der II. Neben- mit der VI. Hauptgruppe (II- VI-Halbleiter), wie Zinkselenid (ZnSe) oder Cadmiumsulfid (CdS). Neben diesen häufig eingesetzten Halbleitern gibt es noch die I-VII-Halbleiter, wie Kupfer(I)-chlorid. Auch Materialien, die im Durchschnitt nicht vier Valenzelektronen haben, können als Halbleiter bezeichnet werden, wenn sie einen spezifischen Wider- stand im Bereich von größer 10-4 W-rn und kleiner 106 W-rn haben.

Eine weitere große Klasse sind die organischen Halbleiter. Als organisch werden sie bezeichnet, weil sie hauptsächlich aus Kohlenstoffatomen aufgebaut sind. Sie werden unterteilt in halbleitende Polymere (unterschiedlich lange Ketten aus einzelnen Mono- meren) und kleine Moleküle (einzelne, abgeschlossene Einheiten). Obwohl Fullerene, Kohlenstoffnanoröhren und deren Derivate streng genommen auch kleine Moleküle darstellen, werden sie oft als alleinstehende Untergruppe wahrgenommen. Klassische Beispiele für organische Halbleiter sind P3HT (Poly-3- hexylthiophen, Polymer), Pen- tacen (kleines Molekül) oder PCBM (Phenyl-C61- butyric acid methyl ester, Fulleren- Derivat). Eingesetzt werden organische Halbleiter in Leuchtdioden (OLEDs), Solarzel- len (OPVs) und Feldeffekttransistoren.

Mehrere halbleitende Moleküle oder Atome bilden im Verbund einen Kristall oder er- zeugen einen ungeordneten (amorphen) Festkörper. Grob können die meisten anorgani- schen Halbleiter als kristallin, die meisten organischen Halbleiter als amorph klassifi- ziert werden. Ob jedoch wirklich ein Kristall oder ein amorpher Festkörper gebildet wird, hängt im Wesentlichen vom Herstellungsprozess ab. So kann beispielsweise Sili- cium kristallin (c-Si) oder amorph (a-Si) sein, beziehungsweise auch eine polykristalli- ne Mischform (poly-Si) bilden. Ebenso existieren Einkristalle aus organischen Molekü- len.

Kristalline Halbleiter

Physikalische Grundlagen

Diamantstruktur (Elementarzelle)

Zinkblendestruktur (Elementarzelle)

Die Halbleitereigenschaften von Stoffen gehen auf ihre chemischen Bindungen und somit ihren atomaren Aufbau zurück. Halbleiter können in unterschiedlichen Strukturen kristallisieren, so kristallisieren Silicium und Germanium in der Diamantstruktur (rein kovalente Bindung), III-V- und II-VI-Verbindungshalbleiter hingegen meist in der Zinkblende-Struktur (gemischt kovalent-ionische Bindung).

Typisches Bändermodell von Metallen, Eigenhalbleiter und Isolatoren (E = Energie - kann mit Arbeit W gleichgesetzt werden; x = räumliche Ausdehnung in eindimensio- naler Richtung); EF stellt die Lage der Fermi-Energie bei T = 0 K dar.

Die grundlegenden Eigenschaften von kristallinen Halbleitern lassen sich anhand des Bändermodells erklären: Die Elektronen in Festkörpern wechselwirken über sehr viele Atomabstände hinweg miteinander. Dies führt faktisch zu einer Aufweitung der (im Einzelatom noch als diskrete Niveaus vorliegenden) möglichen Energiewerte zu ausge- dehnten Energiebereichen, den sogenannten Energiebändern. Da die Energiebänder je nach Aufweitung und Atomart verschieden zueinander liegen, können Bänder sich überlappen oder durch Energiebereiche, in denen nach der Quantenmechanik keine er- laubten Zustände existieren (Energie- oder Bandlücke), getrennt sein.

Bei Halbleitern sind nun das höchste besetzte Energieband (Valenzband) und das nächsthöhere Band (Leitungsband) durch eine Bandlücke getrennt. Das Fermi- Niveau liegt genau in der Bandlücke. Bei einer Temperatur in der Nähe des absoluten Null- punktes ist das Valenzband voll besetzt und das Leitungsband vollkommen frei von La- dungsträgern. Da unbesetzte Bänder mangels beweglicher Ladungsträger keinen elek- trischen Strom leiten und Ladungsträger in vollbesetzten Bändern mangels erreichbarer freier Zustände keine Energie aufnehmen können, was zu einer beschränkten Beweg- lichkeit führt, leiten Halbleiter den elektrischen Strom nicht bei einer Temperatur nahe dem absoluten Nullpunkt.

Für den Leitungsvorgang sind teilbesetzte Bänder notwendig, die bei Metallen durch eine Überlappung der äußeren Bänder bei jeder Temperatur zu finden sind. Dies ist - wie oben erwähnt - bei Halbleitern und Isolatoren nicht gegeben. Die Bandlücke („verbotenes Band“ oder„verbotene Zone“ genannt) bei Halbleitern ist im Gegensatz zu Isolatoren (EG > 4 eV[9]) jedoch relativ klein (InAs: ~ 0,4 eV, Ge: ~ 0,7eV, Si: ~ 1,1 eV, GaAs: ~ 1,4 eV, SiC: ~ 2,39 ... 3,33 eV, Diamant: ~ 5,45 eY), so dass beispielsweise durch die Energie der Wärmeschwingungen bei Raumtemperatur oder durch Absorption von Licht viele Elektronen vom vollbesetzten Valenzband ins Leitungsband angeregt werden können.

Halbleiter haben also eine intrinsische, mit der Temperatur zunehmende elektrische Leitfähigkeit. Deshalb werden Halbleiter auch zu den Heißleitern gezählt. Der Über- gang von Halbleitern zu Isolatoren ist fließend. So wird beispielsweise Galliumnitrid (GaN; Einsatz in blauen LEDs) mit einer Bandlückenenergie von ~ 3,2 eV ebenfalls zu den Halbleitern gezählt, Diamant mit einer Bandlücke von ~ 5,5 eV aber nicht mehr. Halbleiter mit einer Bandlücke deutlich größer als 1 eV werden auch als Halbleiter mit großer Bandlücke (englisch wide-bandgap semiconductor) bezeichnet.

Wird, wie oben beschrieben, ein Elektron in einem Halbleiter aus dem Valenzband in das Leitungsband angeregt, so hinterlässt es an seiner ursprünglichen Stelle ein Defek- telektron,„Loch“ genannt. Gebundene Valenzelektronen in der Nachbarschaft solcher Löcher können durch Platzwechsel in ein Loch„springen“, hierbei wandert das Loch. Es kann daher als bewegliche positive Ladung aufgefasst werden. Sowohl die angereg- ten Elektronen als auch die Defektelektronen tragen somit zur elektrischen Leitung bei. Elektronen aus dem Leitungsband können mit den Defektelektronen rekombinieren (Elektron- Loch-Rekombination). Dieser Übergang zwischen den beteiligten Niveaus kann unter Abgabe von elektromagnetischer Rekombinationsstrahlung (Photon) und/oder unter der Abgabe eines Impulses an das Kristallgitter (Phonon) erfolgen. Direkte und indirekte Halbleiter

Halbleiter werden in zwei Gruppen eingeteilt, die direkten und die indirekten Halblei- ter. Ihre unterschiedlichen Eigenschaften lassen sich nur durch die Betrachtung der Bandstruktur im sogenannten Impulsraum verstehen: Die Ladungsträger im Halbleiter lassen sich als Materiewellen mit einem Quasiimpuls auffassen. Innerhalb eines Bandes hängt die Energie vom Quasiimpuls (oft als Wellenvektor angegeben) ab.

Die Extremwerte der Energie innerhalb der Bänder, also die Bandkanten, liegen bei un- terschiedlichen Wellenvektoren - wo genau, hängt vom Material und der Struktur ab. Wenn ein Elektron aus dem Valenzband ins Leitungsband angeregt wird, so ist es ener- getisch am günstigsten (und somit am wahrscheinlichsten), wenn es vom Maximum des Valenzbandes zum Minimum des Leitungsbandes angeregt wird.

Liegen diese Extrema nahezu beim gleichen Quasiimpuls, ist eine Anregung zum Bei- spiel durch ein Photon ohne weiteres möglich, da das Elektron lediglich seine Energie, nicht aber seinen Impuls ändern muss. Man spricht von einem direkten Halbleiter. Lie- gen die Extrema jedoch bei unterschiedlichen Quasiimpulsen, so muss das Elektron zu- sätzlich zu seiner Energie auch seinen Impuls ändern, um ins Leitungsband angeregt zu werden. Dieser Impuls kann nicht von einem Photon (welches einen sehr kleinen Im- puls hat) stammen, sondern muss von einer Gitterschwingung (auch Phonon) beigesteu- ert werden.

Bei der Rekombination von Elektronen-Loch-Paaren gilt im Prinzip dasselbe. In einem direkten Halbleiter kann bei der Rekombination ein Lichtquant ausgesandt werden. Bei einem indirekten Halbleiter hingegen müsste zum Photon für die Energie noch ein Pho- non für den Impuls erzeugt (oder absorbiert) werden und die strahlende Rekombination wird weniger wahrscheinlich. Es dominieren dann oft andere, nicht strahlende Rekom- binationsmechanismen, z. B. über Verunreinigungen. Hieraus folgt, dass nur direkte Halbleiter zur effektiven Strahlungserzeugung verwendet werden können. Direkte und indirekte Halbleiter werden mittels Absorptionsversuch voneinander unterschieden. In der Regel sind Elementhalbleiter (Silicium, Germanium) und Verbindungshalbleiter aus der IV. Hauptgruppe indirekt und Verbindungshalbleiter aus verschiedenen Hauptgrup- pen (III/V : GaAs, InP, GaN) direkt. Bei einer Bandstruktur, bei der nahe der Leitungs- oder Yalenzbandkante verschiedene Punkte im Impulsraum möglich sind, kann es zum sogenannten Gunn- Effekt kommen.

Eigenhalbleiter und Störstellenhalbleiter

Die Dichte freier Elektronen und Löcher in reinen, das heißt undotierten, Halbleitern werden intrinsische Ladungsträgerdichte oder Eigenleitungsdichte genannt - ein Eigen- halbleiter wird deshalb auch intrinsischer Halbleiter genannt, der dominierende Lei- tungsmechanismus ist die Eigenleitung. Die Ladungsträgerdichte im undotierten Halb- leiter ist stark von der Temperatur abhängig und steigt mit ihr an. Wird dagegen die Konzentration der Ladungsträger im Leitungsband (Elektronen) beziehungsweise im Valenzband (Löcher) durch den Dotierstoff bestimmt, spricht man von einem Störstel- lenhalbleiter oder extrinsischen Halbleiter - hier ist der dominierende Leitungsmecha- nismus die Störstellenleitung.

Dotierung und Störstellenleitung

Dotiergrade von Silicium

Durch das Einbringen von Störstellen in einen Halbleiterkristall können die elektrischen Eigenschaften des (reinen) Halbleiters beeinflusst werden. Störstellen sind Fremdatome, welche sich beispielsweise in ihrer Wertigkeit von den Atomen des Wirtsmaterials un- terscheiden, Beispiele sind Bor oder Phosphor in einem Siliciumkristall. Der Vorgang wird allgemein als Dotierung beziehungsweise als„Dotieren“ bezeichnet. Außerdem können durch die Kombination von unterschiedlich dotierten Gebieten verschiedene Bauelemente, z. B. ein Bipolartransistor, hergestellt werden. In manchen Halbleitern können schon geringste Mengen an Fremdatomen (z. B. ein Fremdatom auf 10 Mio. Halbleiteratome) zu extremen Änderungen der elektrischen Eigenschaften fuhren, die das intrinsische Halbleiten weit übertreffen. Das Einbringen von Störstellen erzeugt zusätzliche, örtlich gebundene Energieniveaus im Banddiagramm des Kristalls. Die Niveaus liegen im Allgemeinen in der für das Wirtsmaterial ansonsten vorhandenen Energielücke (Bandlücke) zwischen Valenz- und Leitungsband. Durch die im Vergleich zu undotierten Halbleitern geringeren Energie- differenzen der„Zwischenniveaus“ zum Valenz- beziehungsweise Leitungsband kön- nen diese Niveaus leichter angeregt werden und so bewegliche Ladungsträger zur Ver- fügung stellen.

Das Chemische Potential verschiebt sich aus der Mitte der Bandlücke in die Nähe der zusätzlichen Niveaus. Es stehen daher mehr Ladungsträger für die Leitung des elektri- schen Stroms zur Verfügung, was sich in einer gegenüber dem reinen Halbleiter erhöh- ten Leitfähigkeit äußert. Man nennt diesen Leitungsmechanismus daher auch Störstel- lenleitung. Es werden dabei zwei Arten von Störstellen unterschieden: Donatoren und Akzeptoren. Als (Elektronen-)Donatoren (lat. donare = schenken) werden Fremdatome bezeichnet, die ein Elektron mehr im Valenzband haben als der reine Halbleiter, man bezeichnet solche Gebiete auch als n-dotierte Halbleiter. Werden solche Fremdatome in den Halbleiter eingebracht (substituiert), so bringt jedes dieser Fremdatome (im Fall von mit Phosphor dotiertem Silicium) ein Elektron mit, das nicht für die Bindung benö- tigt wird und leicht abgelöst werden kann. Es bildet sich ein Störstellenniveau in der Nähe der unteren Energie des Leitungsbandes.

Analog werden als (Elektronen-)Akzeptoren (lat. accipere = annehmen) Fremdatome bezeichnet, die ein Elektron weniger im Valenzband haben. Dieses Elektron fehlt für die Bindung zum Nachbaratom. Sie wirken als ein zusätzliches Defektelektron (Loch) mit (p-Dotierung), welches leicht von Valenzbandelektronen besetzt werden kann - da- her findet sich auch in einigen Betrachtungen der Begriff Löcherdonatoren. Im Bänder- schema liegt ein solches Störstellenniveau nahe oberhalb der Valenzbandkante.

In einem intrinsischen Halbleiter sind die Ladungsträgerkonzentrationen von Elektro- nen und Löchern gleich (Elektronen-Loch-Paare). Daher sind beide Ladungsträgerarten näherungsweise zu gleichen Teilen am Ladungstransport beteiligt. Durch das Einbrin- gen von Donatoren und Akzeptoren lässt sich dieses Gleichgewicht gezielt beeinflus- sen.

Bei Dotierung mit Donatoren sorgen vorwiegend die Elektronen im Leitungsband, bei Dotierung mit Akzeptoren die gedachten, positiv geladenen Löcher im Valenzband für elektrische Leitfähigkeit. Im ersten Fall spricht man von Elektronenleitung oder n- Leitung (n— *· negativ), im anderen Fall von Löcherleitung oder p-Leitung (p ® posi- tiv). Halbleiterbereiche mit Elektronenüberschuss bezeichnet man (wie oben erwähnt) als n-dotiert, solche mit Mangel, also mit„Löcherüberschuss“, als p- dotiert. Im n- Leiter werden die Elektronen als Majoritätsladungsträger (mehrheitlich vorhandene La- dungsträger), die Löcher als Minoritätsladungsträger bezeichnet, im p- Leiter gilt die entsprechende Umkehrung. Durch geschickte Kombination von n- und p-dotierten Be- reichen (siehe p-n-Übergang) kann man einzelne, sogenannte diskrete Halbleiterbau- elemente wie Dioden und Transistoren und komplexe, aus vielen Bauelementen in ei- nem einzigen Kristall aufgebaute integrierte Schaltungen aufbauen. Oft ist in diesen Elektronikbauteilen das intrinsische Halbleiten sogar störend (siehe z. B. Leckstrom), sodass sie mitunter explizit gekühlt werden müssen.

Leitungsmechanismen in dotierten Halbleitern

Leitungsmechanismen im dotierten und undotierten Halbleiter in Abhängigkeit von der Temperatur

Am absoluten Nullpunkt (T = 0 K) unterscheiden sich dotierte und undotierte Halbleiter hinsichtlich der Ladungsträgerdichte nicht - es steht nicht ausreichend Energie zur Ver- fügung, um Elektronen in das Leitungsband oder auf Störstellenniveaus anzuregen. Wird die Temperatur erhöht (damit steigt die zur Verfügung stehende Energie durch thermische Anregung), ändern sich die Verhältnisse.

Da die energetischen Abstände der Störstellen zum Valenz- beziehungsweise Leitungs- band sehr viel geringer als der Bandabstand sind, können Elektronen vom Donatomi- veau ins Leitungsband beziehungsweise Löcher vom Akzeptomiveau ins Valenzband angeregt werden. Es stehen in Abhängigkeit von der Temperatur freie Ladungsträger zur Verfügung, die Leitfähigkeit von dotierten Halbleitern steigt.

Da noch nicht alle Störstellenniveaus ionisiert beziehungsweise besetzt sind, bezeichnet man diesen Bereich als Störstellenreserve. Wird die Temperatur weiter erhöht, bis alle Störstellenniveaus ionisiert beziehungsweise besetzt sind, spricht man von Störstel- lenerschöpfung. Die Ladungsträgerdichte und somit die Leitfähigkeit hängt in diesem Bereich im Wesentlichen nur noch von der Dotierungskonzentration ab. Wegen der mit zunehmender Temperatur abnehmenden Beweglichkeit hat man in diesem Temperatur- bereich ähnlich wie bei Metallen i. A. eine mit der Temperatur leicht abnehmende Leit- fähigkeit.

Bei noch weiterer Erhöhung der Temperatur steht anschließend genug Energie zur Ver- fügung, um Elektronen direkt vom Valenzband in das Leitungsband anzuheben. Da ty- pische Dotierungskonzentrationen deutlich geringer sind als die Anzahl der Halbleitera- tome (mindestens sechs Größenordnungen), überwiegt die Ladungsträgergeneration von Elektron-Loch-Paaren, dieser Bereich wird als intrinsisch oder Eigenleitung des Halb- leiters bezeichnet.

Grenzflächen

Durch die Kombination eines p-dotierten und eines n-dotierten Halbleiters entsteht an der Grenzfläche ein p-n-Übergang. Die Kombination eines dotierten Halbleiters mit ei- nem Metall (z. B. Schottky-Diode) oder einem Nichtleiter ist ebenfalls von Interesse, und wenn zwei Halbleiter, beispielsweise Galliumarsenid und Aluminiumgalliumar- senid, übereinander liegen, entsteht ein Heteroübergang. Dabei sind nicht nur p-n- Übergänge von Bedeutung, sondern ebenfalls p-p-Übergänge und n-n-Übergänge, die sogenannten isotypen Hetero-Übergänge, die beispielsweise in einem Quantentopf ver- wendet werden.

In jüngster Zeit gibt es Anstrengungen, Halbleiter, Supraleiter und Silicium- und III- V- Halbleiter auf einem Chip zusammenzuführen. Da die Kristallstrukturen nicht kompati- bei sind, entstehen in der Grenzfläche Brüche und Gitterfehler, wenn es nicht gelingt, geeignete Materialien für eine wenige Atomlagen dicke Zwischenschicht zu finden, in der die Gitterabstände sich angleichen können.

Semimagnetische Halbleiter

Semimagnetische Halbleiter gehören zur Gruppe der Verbindungshalbleiter (englisch compound semiconductors). Es handelt sich um Verbindungen wie Indiumantimonid (InSb), die mit wenigen Prozent Mangan (Mn) dotiert sind und semimagnetische Eigen- schaften noch bei Raumtemperatur zeigen. Auch Indiumarsenid (InAs) und Galliumar- senid (GaAs) zeigen, bei hoher Dotierung mit Mangan und dann als InMnAs bzw. GaMnAs bezeichnet, semimagnetische Eigenschaften. Die Curietemperatur liegt bei InMnAs bei 50-100 K und bei GaMnAs bei 100-200 K und damit deutlich unter Raumtemperatur. Eine charakteristische Eigenschaft dieser semimagnetischen Halblei- ter ist der große Zeeman-Effekt. Im Englischen nennt man semimagnetische Halbleiter diluted magnetic semiconductors, da sie magnetisch verdünnt sind.

Amorphe Halbleiter

Amorphe Halbleiter haben keine Kristallstruktur. Ein Beispiel für die technische An- wendung ist amorphes Silicium in der Photovoltaik. Aufgrund ihrer hohen Störstellen- dichte müssen sie anders verarbeitet werden als kristalline Halbleiter, z. B. um Dotie- rung erst zu ermöglichen.

Organische Halbleiter

Im Allgemeinen sind organische Materialien elektrisch isolierend. Besitzen Moleküle oder Polymere ein konjugiertes Bindungssystem, bestehend aus Doppelbindungen, Dreifachbindungen und aromatischen Ringen, können auch diese elektrisch leitend werden und als organische Halbleiter verwendet werden. Als erstes wurde dies 1976 bei Polyacetylen beobachtet.

Polyacetylen ist ein unverzweigtes Polymer mit abwechselnder Doppelbindung und Einfachbindung (-C=C— C=C-). Wird diesem Kunststoff noch ein Akzeptor wie z. B. Chlor, Brom oder Iod angefügt (oxidative Dotierung), liegen zusätzliche Löcher vor. Durch das Hinzufügen von einem Donator wie z. B. Natrium (reduktive Dotierung) er- hält der Kunststoff zusätzliche Elektronen.

Durch diese chemische Änderung brechen die Doppelbindungen auf, und es entsteht ein durchgehendes Leitungsband: Das ursprünglich nichtleitende Polymer wird elektrisch leitend. Besitzen Moleküle oder Polymere auch im undotierten Zustand halbleitende Eigenschaften, spricht man wie bei anorganischen Halbleitern von der intrinsischen Leitfähigkeit (Eigenleitfähigkeit), z. B. Pentacen oder Poly(3- Hexylthiophen). Wird der Kunststoff in Form einer dünnen Schicht von 5 bis 1000 nm Dicke hergestellt, ist er geordnet genug, um eine elektrisch durchgängige Schicht zu bilden.

Anwendungsbereiche Mikroprozessor

Siehe auch: Halbleitertechnik und Halbleiterelektronik

Halbleiter werden in der Elektronik in vielfältiger Form verwendet. Das zugehörige Teilgebiet wird als Halbleiterelektronik bezeichnet. Dazu zählen vor allem die halblei- terbasierten integrierten Schaltungen (ICs, wie Mikroprozessoren, Mikrocontroller usw.) und diverse Bauelemente der Leistungselektronik (z. B. IGBTs). Unternehmen in diesem Wirtschaftsbereich werden auch als Halbleiterhersteller bezeichnet. Weitere Anwendungsbereiche mit zunehmender Bedeutung sind die Photovoltaik (Solarzellen) sowie Detektoren und Strahlungsquellen in der Optik und Optoelektronik (zum Beispiel Fotodetektoren und Leuchtdioden). Der Fachbereich, der sich mit der Herstellung von halbleiterbasierten mikroelektronischer Bauelemente und Baugruppen befasst wird als Halbleitertechnik bezeichnet. Voraussetzung ist die Kenntnis, wie der Halbleiter bear- beitet werden muss, um das gewünschte elektrische Verhalten zu erreichen. Dazu gehö- ren das Dotieren des Halbleiters und das Gestalten der Grenzfläche zwischen Halbleiter und einem weiteren Material.

Wirtschaft

Der Markt für Polysilicium ist zurzeit (2010) im Umbruch. Nachdem Polysilicium auf- grund der hohen Bedarfe aus dem Solarmarkt 2008/2009 stark nachgefragt wurde, stieg der Preis stark. Dies hat eine Reihe von Firmen dazu veranlasst, mit der Errichtung neu- er Produktionsanlagen zu beginnen. Die etablierten Hersteller erweiterten zudem ihre Kapazitäten. Daneben drängen neue Anbieter - vor allem aus Asien - auf den Markt. Welcher dieser Hersteller in der Lage sein wird, seine Anlagen wie angekündigt in Be- trieb zu nehmen und bei stark gefallenen Preisen noch profitabel zu agieren, ist unsi- cher.

Der weltweit größte Hersteller von Wafern, auch aus Verbindungshalbleitern, ist das japanische Unternehmen Shin-Etsu Handotai (SEH) mit einem Wafer-Umsatz von 4 Milliarden Dollar im Jahre 2007. Der weltweit zweitgrößte, ebenfalls japanische Her- steller Sumitomo Mitsubishi Silicon Corp. (Sumco) hatte im selben Jahr einen Umsatz von 2,7 Milliarden Dollar. Dem folgen die deutsche Siltronic AG (Wacker) mit 1 ,8 Mil- liarden Dollar und das amerikanische Unternehmen MEMC Electronic Materials mit 1,2 Milliarden Dollar. Diese vier Unternehmen teilen sich etwa 79 % des gesamten Si- Wafermarktes von 12,5 Milliarden Dollar. Während der weltweiten Finanzkrise halbier- ten sich die Umsätze nahezu, 2009 wurde nur noch Silicium für 6,7 Milliarden Dollar umgesetzt. Bereits 2010 hatten sich die Umsätze schon wieder auf 9,7 Milliarden Dollar erholt.

36. Elektronisches Papier

Als Elektronisches Papier (kurz E-Papier oder auch englisch e-paper, E-Paper oder ePaper genannt) werden Anzeigetechniken bezeichnet, mit denen versucht wird, das Aussehen von Tinte bzw. Farbe auf Papier nachzubilden.

E-Paper-Displays reflektieren das Licht wie normales Papier, es sind also passive (nichtleuchtende) Anzeigen. In Anlehnung an den englischen Sprachgebrauch werden solche Bildschirme auch als reflektive Displays bezeichnet. Texte oder Bilder werden bei manchen Anzeigetechniken dauerhaft angezeigt, ohne dass dafür eine Erhaltungs- Spannung erforderlich ist. Die Anzeige kann jedoch zu einem späteren Zeitpunkt geän- dert werden. Elektronisches Papier ist bei einigen Herstellern - ähnlich wie normales Papier - biegsam.

Obwohl es verschiedene Verfahren zur Herstellung elektronischen Papiers gibt und sich inzwischen eine größere Anzahl von Firmen mit deren Erforschung und Weiterentwick- lung beschäftigt, findet man im allgemeinen Sprachgebrauch den Begriff E-Ink oft als synonyme Bezeichnung für Elektronisches Papier.

Genaugenommen handelt es sich bei E Ink (Eigenschreibweise ohne Bindestrich) nur um den Markennamen des Produkts der E Ink Corporation, das derzeit in den meisten modernen E-Book-Readern verwendet wird und das auf der Erscheinung der Elektro- phorese basiert.

Technologie

In den 1970er Jahren hatte der Forscher Nick Sheridon am Palo Alto Research Center der Firma Xerox als Erster elektronisches Papier entwickelt. Es nannte sich Gyricon und bestand aus kleinen, statisch geladenen Kügelchen. Diese waren zweifarbig: auf der einen Seite schwarz, auf der anderen weiß. Der Textinhalt des Papiers ließ sich durch ein anliegendes elektrisches Feld verändern. Dadurch wurden die Kügelchen nach oben oder unten gedreht, so dass entweder die schwarze oder weiße Seite sichtbar war.

Gyricon konnte jedoch nicht ausreichend preiswert produziert werden, so dass Xerox die zur Vermarktung gegründete Firma Gyricon LCC Ende 2005 auflöste.

Elektrophorese

In den 1990er Jahren verwendete ein Team unter Leitung von Joseph Jacobson] am MIT kleine Mikrokapseln, in denen elektrisch geladene weiße Teilchen in gefärbtem Öl schwammen. Durch die Polarität eines angelegten elektrischen Feldes wandern die wei- ßen Partikel an die Oberseite der Mikrokapsel (also für den Betrachter sichtbar), oder an die Unterseite, sodass der Betrachter an diesem Punkt die dunklere Farbe des Öls sah. Auf Grundlage dieser auf Elektrophorese basierenden Technik entwickelte das ameri- kanische Unternehmen E Ink Corporation sein aktuelles elektronisches Papier.

Dieses elektronische Papier enthält Mikrokapseln mit einem mittleren Durchmesser von ca. 40 mm, die positiv geladene weiße Partikel und negativ geladene schwarze Partikel in einem transparenten zähflüssigen Polymer enthalten. Die Darstellung wird durch kurzzeitiges Anlegen einer elektrischen Spannung verändert und bleibt dann mehrere Wochen lang stabil. Form und Durchmesser der Mikrokapseln sind unregelmäßig, was aber unbedeutend ist, da sich jedes einzelne Pixel aus vielenMikrokapseln zusammen- setzt und sich diese Unregelmäßigkeiten dadurch herausmitteln.

Die Verwendung von Mikrokapseln erlaubt auch, flexiblen Kunststoff anstelle von Glas als Trägermaterial zu verwenden.

Die Ansteuerung der Bildpunkte geschieht bei Segmentanzeigen mittels passiver trans- parenter Elektroden und bei Matrixdisplays über eine TFT- Aktiv-Matrix, wie sie auch bei LC-Bildschirmen verwendet wird.

Die Darstellung von Graustufen wird durch den zeitlichen Verlauf der angelegten Spannung gesteuert. Ursprünglich konnten acht Graustufen angezeigt werden, die aktu- ellen Displays arbeiten mit 16 Graustufen. In Verbindung mit aus der Drucktechnik und Bildbearbeitung bekannten Rasterverfahren wird eine scheinbar stufenlose Grauwert- darstellung erzielt.

Farbige Displays basieren entweder auf schwarz-weißem elektronischen Papier mit vorgelagerten Farbfiltern, oder sie sind mit farbigen Pigmenten ausgestattet.

Die E Ink Corporation hat seit 1999 verschiedene Anwendungen vorgestellt und 2004 als erster Hersteller mit der Serienfertigung elektronischen Papiers in größerem Maß- stab begonnen. Produkte anderer Hersteller waren bzw. sind zum Beispiel„SiPix Microcup“ der ameri- kanischen Firma Sipix (die 2012 von der E Ink Corporation übernommen worden ist), das flexible elektronische Papier„Lectum“ des Herstellers "Plastic Logic", das in Dres- den hergestellt wird, die flexiblen E-Ink-Displays von LG Display oder das„O-paper“ des chinesischen Herstellers Guangzhou OED Technologies. Ein weiterer Hersteller elektrophoretischen elektronischen Papiers mit einer eigenen Technik war Bridgesto- ne,[8] dessen Entwicklung 2012 aber eingestellt wurde.

Seit 2002 sind durch Firmen wie E-Ink, Bridgestone oder Philips verschiedene Prototy- pen farbigen elektrophoretischen E-Papiers vorgestellt worden, die aber alle nicht in Se- rienproduktion gegangen sind. Die E Ink Corporation hat 2011 mit der Produktion des mit Farbfiltern arbeitenden elektronischen Papiers„Triton“ begonnen, und 2016 hat die Firma„ACeP“ vorgestellt, bei dem farbige Pigmente benutzt werden.

Flexibles elektronisches Papier wird hauptsächlich bei industriellen Displays und im Werbebereich eingesetzt. Bei elektronischen Lesegeräten, die vorzugsweise für best- möglichen Kontrast und hohe Lebensdauer ausgelegt werden, dominieren Glasdisplays, auch wenn vereinzelt Prototypen mit flexiblen Bildschirmen gezeigt werden wie bei- spielsweise das faltbare E-Ink-Display.

Elektrophoretisch gesteuerte Totalreflexion

Das US-amerikanische Unternehmen CLEARInk hat auf der SID Display Week 2017 Displays vorgestellt, die auf der Kombination einer Folie mit totalreflektierenden Lin- sen und einer dahinter liegenden Schicht elektrisch geladenener Partikel in einer Flüs- sigkeit beruhen. Die Partikel werden durch ein angelegtes elektrisches Feld bewegt, und wenn sie sich an der rückseitigen Linsenoberfläche anlagem, wird die Totalreflexion durch Absorption unterdrückt. Mit dieser Technik können Displays gefertigt werden, die schnell genug für Videowie- dergabe sind, und es sollen bistabile Displays möglich sein, die deutlich mehr Licht re- flektieren, als das bei E-Ink-Displays möglich ist.

Bistabile LCD

Einige Firmen produzieren elektronisches Papier auf Basis von bistabilen LCDs. Diese ermöglichen ein neutrales Weiß bei hoher Albedo (Oberflächenreflexion) und Auflö- sungen bis zu 200 dpi. Ein Beispiel ist das Cholesteric Liquid Crystal Display. Prototyp eines hochauflösenden elektronischen Papiers. Der in das Display geschriebene Inhalt bleibt auch ohne Spannungsquelle über Wochen erhalten (bistabiler Zustand).

Elektrobenetzung (Electrowetting)

Der Philips-Firmenableger Liquavista hat eine Displaytechnik entwickelt, bei der eine gefärbte Öl- und eine Wasserschicht Übereinanderliegen. Die Lichtdurchlässigkeit der einzelnen Bildpunkte wird dabei beeinflusst, indem die Oberflächenspannung mittels angelegter elektrischer Spannung verändert wird (Elektrobenetzung). Damit lassen sich farbige und schnelle reflektive Anzeigen mit hohem Kontrast und geringem Energie- verbrauch hersteilen, deren Schaltgeschwindigkeit auch Videowiedergabe erlaubt.

Der funktionsfähige Prototyp eines E-Book-Lesegerätes mit einem farbigen 6"- Electrowetting-Display wurde auf der CES 2010 vorgestellt.

Anfang 2011 ist Liquavista von Samsung übernommen worden, und Anfang 2013 durch Amazon.

2018 wurde Liquavista geschlossen. Eine neue Firma namens Etulipa versucht, die Technik für Plakatwände zu etablieren.

Mikromechanisch gesteuerte Interferenz-Modulation

Siehe auch: Interferometrie modulator display

Der Mobilfunktechnik-Hersteller Qualcomm produzierte unter dem Namen„Mirasol“ vertriebene IMOD-Displays. Diese beruhten darauf, dass mikromechanisch der Abstand zweier reflektierender Schichten verändert und damit die Lichtreflexion mittels kon- struktiver und destruktiver Interferenz gesteuert wird. Die Displayelemente sind (wie bei E-Ink) bistabil und ermöglichen die Herstellung stromsparender reflektiver Anzei- gen. Qualcomm hat auf der CES 2010 funktionsfähige Prototypen von 5,7"-Lesegeräten mit farbigen Mirasol-Displays vorgestellt, die auch für Video Wiedergabe geeignet sind. Die Aufnahme der Produktion in größerem Maßstab war ursprünglich für 2012 ange- kündigt, es gab aber nur wenige Produkte. [28] Danach wurde an einer neuen Generati- on von Mirasol-Displays mit der Bezeichnung SMI (Single Mirror IMOD) gearbeitet, bei denen die einzelnen Pixel über das Spektrum durchstimmbar sind, und somit keine Farbfilter mehr benötigt werden. Auch diese Technik hat keine Anwendung in Endpro- dukten gefunden.

Vor- und Nachteile gegenüber herkömmlichen Bildschirmen und Papier

Das Portable Reading System PRS-505 von Sony (2007)

Elektronisches Papier vereint die Vorteile von Computerbildschirm und Papier. Gegen- über herkömmlichen Bildschirmen, wie sie zur TV- und Grafikwiedergabe genutzt werden, bietet es beim gegenwärtigen Stand der Entwicklung die folgenden Vorteile:

-Der Bildinhalt sieht wegen des geringen Abstandes der bildgebenden Elemente zur Oberfläche aus jedem Blickwinkel gleich aus (Vorteil gegenüber LCDs)

-Es gibt durch die statische Anzeige kein Flimmern (Vorteil gegenüber Röhrenmonito- ren).

-Es ist sehr dünn und leicht und bei entsprechendem Design auch biegsam.

-Es ist in allen Größen und Formen herzustellen - vom kleinen Display mit der aktuel- len Wetteranzeige bis hin zur großen Anzeigetafel oder Plakatfläche [30]

-Es verwendet sehr wenig Energie, um die Anzeige zu erzeugen und aufrechtzuerhalten, da nur zum Ändern des Bildinhaltes (Seitenwechsel) ein Stromfluss erforderlich ist.

-Es ist sowohl bei normalem Raumlicht als auch in hellem Sonnenschein lesbar, da die bildgebenden Elemente reflektiv sind.

Die Nachteile gegenüber Druckmedien wie Papier sind die eher glatte Oberfläche der Displayabdeckung, die Stör- und Streulicht reflektiert. Sowohl die Grauwertauflösung (derzeit nur 16 Graustufen) als auch der Kontrast sind noch gering, und weiße Flächen erreichen im besten Fall ein helles Hellgrau. Die langen Schaltzeiten der ersten Genera- tion elektronischen Papiers lassen nur eine statische Anzeige zu. Der Farbraum der far- bigen Displays ist vergleichsweise eingeschränkt. Durch Energiesparmechanismen der E-Book-Reader können auch Ghosting-Effekte auftreten.

Anwendungen

Elektronisches Preisschild im Supermarkt

Als ersten Feldversuch zur Auslieferung einer Zeitung hat die belgische Wirtschaftszei- tung De Tijd von April bis Juni 2006 einen Test mit zweihundert Lesern durchgeführt. Das dabei verwendete Gerät war der iLiad von iRex.

Ein Feldversuch mit elektronischem Papier als Werbefläche wurde Ende 2006 von Hitachi durchgeführt. In Nahverkehrszügen einer Tokioter Eisenbahnlinie wurden als Ersatz für gewöhnliche Werbeposter Displays auf Basis elektronischen Papiers von Bridgestone angebracht. Meinungsumfragen sollten anschließend über die Vermark- tungsfähigkeit entscheiden.

Es gibt mittlerweile viele Geräte, in denen E -Paper-Displays eingesetzt werden:

Von zahlreichen Herstellern werden Lesegeräte für elektronische Bücher hergestellt bzw. als OEM-Geräte mit eigener Firmware vertrieben. Dies ist im Augenblick der Haupteinsatz elektronischen Papiers.

Als erstes Mobiltelefon hatte das von Motorola hergestellte Motofone F3 für die Anzei- ge elektronisches Papier eingebaut. Motorola bezeichnete dieses Display als„EPD“, es handelt sich um eine Segmentanzeige mit elektronischem Papier von E Ink. Der dabei im Vergleich zu anderen Anzeige verfahren ungewohnte Effekt ist, dass die Anzeige bei Entfernen des Akkus aus dem Mobiltelefon erhalten bleibt. Ein Vorteil gegenüber ande- ren Telefondisplays ist, dass die Darstellung selbst bei direkter Sonneneinstrahlung ab- lesbar bleibt. Lexar hat die USB-Sticks„JumpDrive Secure II Plus“,„Echo MX“ und„MIO“ herge- stellt, die den Füllstand ihres Speichers über ein Display mit elektronischem Papier an- zeigen. Da der Anzeigeinhalt ohne Stromzufuhr erhalten bleibt, kommen diese Geräte ohne Batterie aus.

Western Digital verkauft seit August 2009 externe Festplatten (Serien My Book Elite und My Book Studio), die an ihrer Vorderseite über ein sogenanntes E-label verfügen. Das E-label zeigt eine frei wählbare Textzeile (Inhalt der Festplatte), den verfügbaren freien Speicher und die Aktivierung der Laufwerksverschlüsselung an.

Die Firma Seiko brachte 2005 mit dem Modell„Seiko Spectrum“ die erste Armbanduhr heraus, die mit einer E-Ink-Segmentanzeige ausgestattet ist. 2010 erschien die erste E- Ink-Uhr mit Matrixdisplay. Das Display weist 80.000 Pixel mit einer Auflösung von 300 ppi auf. Jedes Pixel kann eine von vier Graustufenschattierungen anzeigen.

Die österreichische Warenhauskette Billa verwendet E-Ink-Displays als Preisschilder, dadurch können die Verkaufspreise bestimmter Waren vom Büro aus geändert werden

Andere Anwendungen

Das Magazin Esquire erschien am 8. September 2008 zum 75. Jahrestag als erstes Ma- gazin mit einem Cover, das mit elektronischem Papier ausgestattet war. Die dabei be- nutzte E-Ink-Einlage war jedoch keine Matrixanzeige, sondern diente dazu, Schlagzei- len ein- und auszuschalten, zu invertieren und Textbereiche blinken zu lassen. Die „Special Collector's Edition“ wurde 100.000-mal hergestellt.

Zunehmend werden E-Paper-Displays auch für Türschilder, z. B. bei Konferenzräumen mit häufig wechselnder Nutzung oder auch in Supermärkten zur Auszeichnung der Preise an den Regalen verwendet. The screen technology used in e-readers like the Amazon Kindle was conceived by undergraduates at MIT. In: Science Friday. 10. Mai 2016, abgerufen am 2. September 2017 (englisch).

37. Gedruckte Elektronik Gedruckte Elektronik (englisch printed electronics) bezeichnet elektronische Bauele- mente, Baugruppen und Anwendungen, die vollständig oder teilweise mittels Druckver- fahren hergestellt werden. Anstelle der Druckfarben werden elektronische Funktions- materialien, die in flüssiger oder pastöser Form vorhegen, verdruckt.

Häufig handelt es sich dabei um organische Materialien, insofern ist die gedruckte Elektronik ein Teilgebiet der organischen Elektronik und wird als Schlüsseltechnologie zu deren Herstellung angesehen. Durch eine erhebliche Reduzierung der Herstellungs- kosten, durch die Möglichkeit, großflächige und flexible Substrate zu bedrucken, sowie durch neuartige Funktionalitäten sollen Anwendungsfelder für die Elektronik erschlos- sen werden, die der konventionellen (anorganischen) Elektronik bisher nicht oder nur eingeschränkt zugänglich waren. Neue Entwicklungen durch die gedruckte Elektronik zeichnen sich u. a. in Anwendungen wie RFID, Displays und Solarzellen ab.

Grundlagen

Die gedruckte Elektronik vereint Erkenntnisse und Entwicklungen der Drucktechnolo- gie, der Elektronik sowie der Chemie und Werkstoffwissenschaft, insbesondere der or- ganischen und Polymerchemie. Wegbereitend ist die Entwicklung der organischen Elektronik, die wiederum auf der Entwicklung organischer elektronischer Funktionsma- terialien basiert. Neben den elektronischen Funktionalitäten (Leiter, Halbleiter, Elektro- lumineszenz usw.) führte die Prozessierbarkeit in flüssiger Form als Lösung, Dispersion oder Suspension solcher Materialien zur Entwicklung der gedruckten Elektronik.fi] Daneben werden aber auch anorganische Materialien, die sich in flüssiger Form prozes- sieren lassen, verwendet.

Insofern es sich bei der gedruckten Elektronik um Bauelemente aus der organischen Elektronik handelt, unterscheiden sich diese in Aufbau, Funktionsweise und Funktiona- lität teilweise von konventioneller Elektronik. Deshalb spielt das Design und die Opti- mierung der Bauelemente und Schaltungen unter Berücksichtigung des speziellen Her- stellungsverfahrens eine wichtige Rolle in der Entwicklung der gedruckten Elektronik. Zur Herstellung gedruckter Elektronik kommen fast alle industriellen Druckverfahren, meist in angepasster oder modifizierter Form, zur Anwendung. Analog zum konventio- nellen Bilderdruck, bei dem mehrere Farbschichten übereinander aufgetragen werden, werden in der gedruckten Elektronik elektronische Dünnschicht- Bauelemente durch das Übereinanderdrucken mehrerer Funktionsschichten hergestellt. Jedoch unterschei- den sich sowohl die verwendeten Materialien als auch die geforderten Eigenschaften der gedruckten Schichten wesentlich voneinander, so dass die aufeinander abgestimmte Anpassung und Weiterentwicklung der verwendeten Druckverfahren und der verdruck- ten Materialien die zentrale Aufgabe in der Entwicklung der gedruckten Elektronik dar- stellt.

Beispielsweise ist die maximale Auflösung der gedruckten Strukturen im konventionel- len Bilderdruck durch die Auflösung des menschlichen Auges bestimmt. Strukturgrö- ßen unterhalb von etwa 20 mhi können vom menschlichen Auge nicht wahrgenommen und in herkömmlichen Druckprozessen meist auch nicht hergestellt werden. Dagegen sind in der Elektronik höhere Auflösungen wünschenswert, da diese unmittelbar die In- tegrationsdichte, aber auch die Funktionalität von Bauelementen (insbesondere von Transistoren) beeinflussen. Ähnliches gilt für die Passgenauigkeit übereinander ge- druckter Schichten.

Schwankungen in der Dicke und anderen Schichteigenschaften sowie das Auftreten von Löchern sind beim konventionellen Drucken nur insofern von Relevanz, als sie vom menschlichen Auge wahrgenommen werden können. Dagegen stellen sie in der ge- druckten Elektronik wesentliche Qualitätsmerkmale für die Funktion der gedruckten Bauelemente dar. Umgekehrt ist hier der visuelle Eindruck irrelevant.

Hinzu kommt, dass in der gedruckten Elektronik eine größere Vielfalt von Materialien verarbeitet werden muss, woraus sich neue Anforderungen an die Kompatibilität auf- einander gedruckter Schichten hinsichtlich Benetzung, Haftung und des gegenseitigen Anlösens ergeben. Im Vergleich zur konventionellen Mikroelektronik zeichnet sich die gedruckte Elektro- nik durch eine einfachere, flexiblere und vor allem kostengünstigere Herstellung aus. Sie soll elektronischen Anwendungen eine wesentlich größere Verbreitung, Vernetzung und Durchdringung auch im Alltag ermöglichen. Ein Beispiel hierfür ist die Ausstat- tung der Verpackung von Alltagsgütern mit gedruckten RFID-Systemen, die eine kon- taktlose Identifizierung im Handel und Transport ermöglicht. Zudem ermöglicht die ge- druckte Elektronik die einfache Realisierung und Integration von speziellen Eigenschaf- ten und Funktionalitäten (z. B. flexible Displays und Solarzellen).

Gedruckte und konventionelle Elektronik als komplementäre Technologien.

In der Regel bleibt die Leistungsfähigkeit von gedruckter Elektronik hinsichtlich der jeweiligen Funktion, abgesehen von einigen Ausnahmen z. B. auf dem Gebiet der Leuchtdioden, hinter der der konventionellen Elektronik zurück. Elektronische Anwen- dungen mit hohen Schaltffequenzen und hoher Integrationsdichte (sog.„High- end- Elektronik“) werden auf absehbare Zeit von der herkömmlichen Elektronik dominiert werden, die jedoch auch vergleichsweise hohe Investitions- und Herstellungskosten er- fordert. Dagegen zielt die gedruckte Elektronik als dazu komplementäre Technologie auf die Etablierung einer„Low-cost-Elektronik“ für Anwendungsbereiche, in denen die hohe Leistungsfähigkeit der konventionellen Elektronik nicht erforderlich ist.

Verfahren

Die Attraktivität der Anwendung von Druckverfahren zur Herstellung von Elektronik resultiert in erster Linie aus der Möglichkeit, Stapel von mikrostrukturierten Schichten (und somit Dünnschicht-Bauelemente) in wesentlich einfacherer und kostengünstigerer Weise als in der konventionellen Elektronik herzustellen. [8] Daneben spielt auch die Möglichkeit eine Rolle, neue oder verbesserte Funktionalitäten (z. B. mechanische Fle- xibilität) zu erzeugen. Die Auswahl des verwendeten Druckverfahrens richtet sich nach den Anforderungen an die gedruckten Schichten, nach den Eigenschaften der verdruck- ten Materialien sowie nach wirtschaftlichen und technischen Erwägungen hinsichtlich der hergestellten Produkte. Von den herkömmlichen industriellen Druckverfahren wer- den hauptsächlich der Inkjet- und Siebdruck sowie die sog. Massendruckverfahren Tief- , Offset- und Flexodruck in der gedruckten Elektronik verwendet. [5] Während die Mas- sendruckverfahren meist als Rolle-zu-Rolle- Verfahren (web-fed) eingesetzt werden, kommen der Sieb- und der Inkjetdruck meist als Bo gen verfahren (sheet-fed) zum Ein- satz. Es existieren aber auch die jeweils anderen Varianten.

Massendruckverfahren

Die Massendruckverfahren Tief-, Offset- und Flexodruck zeichnen sich im Vergleich mit anderen Druckverfahren vor allem durch eine weit überlegene Produktivität, die sich in einem Flächendurchsatz von vielen 10.000 m 2 /h ausdrückt, aus. Sie sind daher in besonderer Weise geeignet, die Herstellungskosten drastisch zu senken, wenn sie auf das Drucken von Elektronik angewendet werden. Aufgrund ihres hohen Entwicklungs- standes und der Vielfalt von verfügbaren Verfahren und Verfahrensvarianten ermögli- chen sie gleichzeitig hohe Auflösungen bis zu 20 gm und darunter, hohe Schichtqualitä- ten sowie eine große Breite an erreichbaren Schichteigenschaften und prozessierbaren Materialien. Im Bereich der gedruckten Elektronik kommt es, wie bei anderen Druck- verfahren auch, zu erheblichen Weiterentwicklungen der herkömmlichen Verfahren.

Allerdings erfordert die Anwendung und Anpassung der Massendruckverfahren für die gedruckte Elektronik nicht nur erhebliches Know-how, sondern auch im Vergleich mit den anderen Druckverfahren einen höheren Aufwand, der jedoch noch immer weit unter dem in der konventionellen Elektronik liegt. Während der Offset- und der Flexodruck vornehmlich für anorganische und organischeLeiter (letzterer auch für Dielektrika) verwendet werden, eignet sich der Tiefdruck wegen der hohen erreichbaren Schichtqua- lität besonders für qualitätssensible Schichten wie organische Halbleiter und Halblei- ter/Dielektrikum-Grenzschichten in Transistoren, in Zusammenhang mit der hohen Auflösung aber auch für anorganische und organische Leiter. Es konnte gezeigt werden, dass sich Organische Feldeffekt- Transistoren und daraus aufgebaute integrierte Schal- tungenvollständig mittels Massendruckverfahren herstellen lassen.

T intenstrahldruck Der Inkjetdruck ist ein flexibles und vielfältig einsetzbares digitales Druckverfahren, das mit verhältnismäßig geringem Aufwand und auch im Labormaßstab durchführbar ist. Daher ist er das für die gedruckte Elektronik wohl am häufigsten eingesetzte Druck- verfahren, allerdings ist er den Massendruckverfahren sowohl in Bezug auf den Flä- chendurchsatz (typischerweise 100 m 2 /h) als auch in Bezug auf die Auflösung (ca. 50 mm) unterlegen.

Er eignet sich besonders für niedrigviskose, gelöste Materialien wie organische Halblei- ter. Bei hochviskosen Materialien, wie organischen Dielektrika, und dispergierten Par- tikeln, wie anorganischen Metallfarben, treten immer wieder Schwierigkeiten durch das Verstopfen der Düsen auf. Wegen des tropfenweisen Auftrags der Schichten ist deren Homogenität begrenzt.

Diese Probleme können durch geeignete Maßnahmen abgemildert werden. Durch Paral- lelisierung, d. h. die gleichzeitige Verwendung vieler Düsen, bzw. eine Vorstrukturie- rung des Substrates können auch bezüglich der Produktivität bzw. der Auflösung Ver- besserungen erreicht werden. Allerdings wird im letztgenannten Fall für den eigentli- chen Strukturierungsschritt auf Nicht-Druckverfahren zurückgegriffen.

Inkjetdruck wird bevorzugt für organische Halbleiter in organischen Feldeffekttransis- toren (OFETs) und organischen Leuchtdioden (OLEDs) eingesetzt, es wurden aber auch vollständig mit dieser Methode hergestellte OFETs demonstriert. Des Weiteren können Front- und Backplanes von OLED- Displays, integrierte Schaltungen, organi- sche photo voltaische Zellen (OPVCs) und andere Bauelemente und Baugruppen mit Hilfe des Inkjetdrucks hergestellt werden.

Siebdruck

Wegen der Möglichkeit, dicke Schichten aus pastösen Materialien zu erzeugen, wird der Siebdruck bereits seit längerer Zeit in industriellem Maßstab in der Fertigung von Elektronik und Elektrotechnik eingesetzt. Vor allem Leiterbahnen aus anorganischen Metallen (z. B. für Leiterplatten, Antennen oder Glucose-Teststreifen), aber auch isolie- rende und Passivierungsschichten werden mit diesem Verfahren hergestellt, wobei es jeweils auf eine vergleichsweise hohe Schichtdicke, aber nicht auf eine hohe Auflösung ankommt. Flächendurchsatz (ca. 50 m 2 /h) und Auflösung (ca.100 mm) sind, ähnlich wie beim Inkjetdruck, begrenzt. Auch in der gedruckten Elektronik wird dieses vielseitige und verhältnismäßig einfache Verfahren vor allem für leitende und dielektrische Schichten angewandt, es können aber auch organische Flalbleiter, z. B. für OPVCs, und sogar vollständige OFETs gedruckt werden.

Weitere Verfahren

Neben den konventionellen Verfahren kommen auch neue Verfahren, die Ähnlichkeiten zum Drucken aufweisen, zum Einsatz, darunter das Microcontact- Printing und die Nanoprägelithografie.

Dabei werden Schichten mit mm- bzw. nm- Auflösung in einem dem Stempeln ähnli- chen Verfahren mit weichen bzw. harten Formen hergestellt. Häufig werden dabei die eigentlichen Strukturen auf subtraktivem Wege, z. B. durch das Aufbringen von Ätz- masken oder durch Lift-off-Verfahren, erzeugt. Auf diese Weise können z. B. Elektro- den für OFETs hergestellt werden.

Vereinzelt wird in ähnlicher Weise auch der Tampondruck verwendet. Gelegentlich wird auch die Anwendung sog. Transferverfahren, bei denen feste strukturierte Schich- ten von einem Träger auf das Substrat übertragen werden, zur gedruckten Elektronik gezählt. Die Elektrofotografie (der sog. Toner- oder Laserdruck) kommt bisher nicht in der gedruckten Elektronik zur Anwendung.

Materialien

Für die gedruckte Elektronik werden sowohl organische als auch anorganische Materia- lien verwendet. Voraussetzung dafür ist, neben der jeweiligen elektronischen Funktio- nalität, dass die Materialien in flüssiger Form, d. h. als Lösung, Dispersion oder Sus- pension, vorliegen. Dies trifft insbesondere auf vieleFunktionsmaterialien, die als Lei- ter, Halbleiter oder Isolatoren verwendet werden, zu.

Mit wenigen Ausnahmen handelt es sich bei den anorganischen Materialien um Disper- sionen von metallischen Mikro- oder Nanopartikeln. Ausgangspunkt der Entwicklung druckbarer elektronischer Funktionsmaterialien war die Entdeckung konjugierter Poly- mere (Nobelpreis für Chemie 2000) und deren Weiterentwicklung zu löslichen Materia- lien. Heute existiert eine große Vielfalt druckbarer Materialien aus dieser Polymerklas- se, die leitende, halbleitende, elektrolumineszente, photovoltaische und andere funktio- nale Eigenschaften aufweisen. Andere Polymere werden meist als Isolator|Isolatoren bzw. Dielektrika eingesetzt.

Neben der jeweiligen elektronischen Funktionalität ist die Prozessierbarkeit in den Druckverfahren wesentlich für die Anwendung in der gedruckten Elektronik. Dabei können diese beiden Eigenschaften durchaus im Widerspruch zueinander stehen, so dass eine sorgfältige Optimierung erforderlich ist. Beispielsweise wirkt sich eine höhere molare Masse leitfähiger Polymere tendenziell positiv auf die Leitfähigkeit der ge- druckten Schicht, aber negativ auf die Löslichkeit in dem zum Drucken verwendeten Lösungsmittel aus.

Für die Prozessierung in den Druckverfahren spielen die Eigenschaften der flüssigen Formulierung wie Viskosität, Oberflächenspannung und Feststoffgehalt eine Rolle, des Weiteren sind auch Wechselwirkungen mit vorhergehenden bzw. nachfolgenden Schichten wie Benetzung, Haftung und gegenseitiges Anlösen sowie der Trocknungs- prozess nach der Deposition der flüssigen Schicht zu berücksichtigen. Die Verwendung von Additiven zur Verbesserung der Prozessierbarkeit wie bei konventionellen Druck- farben ist in der gedruckten Elektronik stark eingeschränkt, da diese häufig die jeweili- ge Funktion beeinträchtigen.

Die Eigenschaften der eingesetzten Materialien bestimmen bereits in großem Umfang die Unterschiede zwischen der gedruckten und der konventionellen Elektronik. Einer- seits bieten die Materialien der gedruckten Elektronik eine Reihe von Vorteilen, die entscheidend für die Entwicklung dieser Technologie sind. Dazu gehören neben der Prozessierbarkeit in flüssiger Form die mechanische Flexibilität sowie die Möglichkeit, funktionale Eigenschaften durch chemische Modifikationen einzustellen (z. B. die Far- be des emittierten Lichtes in der aktiven Schicht von OLEDs).[32] Andererseits können im Allgemeinen aus organischen, insbesondere aus polymeren, Materialien nicht die hochgeordneten Schichten und Grenzflächen, wie sie in der anorganischen Elektronik verwendet werden, hergestellt werden. Das führt u. a. dazu, dass die Leitfähigkeit in gedruckten Leitern bzw. die Ladungsträgerbeweglichkeit in gedruckten Halbleitern z. T. weit unter den Werten in anorganischen Schichten liegen.

Ein zurzeit intensiv untersuchter Punkt ist die Tatsache, dass in den meisten organi- schen Materialien die Lochleitung gegenüber der Elektronenleitung bevorzugt ist. Neuere Untersuchungen deuten darauf hin, dass es sich dabei um eine spezifische Ei- genschaft von organischen Halbleiter/Dielektrikum-Grenzflächen, die in OFETs eine zentrale Rolle spielen, handelt. Daher konnten bisher keine Bauelemente vom n-Typ, im Unterschied zu p-Typ-Bauelementen, gedruckt werden, sodass in der gedruckten Elektronik bisher keine CMOS-, sondern ausschließlich PMOS-Technologie möglich ist. Schließlich liegt auch die Stabilität gegenüber Umwelteinflüssen und die Lebens- dauer gedruckter elektronischer Funktionsschichten typischerweise unter der der kon- ventionellen Materialien.

Ein wesentliches Charakteristikum der gedruckten Elektronik stellt die Verwendung von flexiblen Substraten dar, die sich günstig auf die Herstellungskosten auswirkt und die Herstellung von mechanisch flexiblen elektronischen Anwendungen ermöglicht. Während im InkJet- und Siebdruck zum Teil noch auf starren Substraten wie Glas und Silizium gearbeitet wird, werden in den Massendruckverfahren aufgrund ihres rotativen Verfahrensprinzips fast ausschließlich Folie und Papier eingesetzt.

Aufgrund des Kostenvorteils kommt häufig Polyethylenterephthalat-Folie (PET), we- gen der höheren Temperaturstabilität gelegentlich auch Polyethylennaphthalat- (PEN) und Polyimid-Folie (PI) zum Einsatz. Weitere wichtige Kriterien für die Verwendung des Substrates sind eine niedrige Rauheit und eine geeignete Benetzbarkeit, die gegebe- nenfalls durch Vorbehandlungen (Beschichtung, Coronabehandlung) angepasst werden kann. Im Gegensatz zum konventionellen Druck wirkt sich eine hohe Saugfähigkeit in der Regel ungünstig aus. Aufgrund der niedrigen Kosten und der vielfältigen Anwen- dungsmöglichkeiten stellt Papier ein attraktives Substrat für die gedruckte Elektronik dar, bereitet jedoch wegen der hohen Rauheit und Saugfähigkeit technologische Schwierigkeiten. Nichtsdestoweniger sind entsprechende Entwicklungen im Gange.

Zu den am häufigsten in der gedruckten Elektronik verwendeten Materialien zählen die leitfähigen Polymere Poly-3,4-ethylendioxythiophen, das mit Polystyrensulfonat dotiert wird (PEDOT:PSS), und Polyanilin (PANI). Beide Polymere sind kommerziell in ver- schiedenen Formulierungen erhältlich und wurden bereits im Inkjet-, Sieb- und Offset- druck bzw. im Sieb-, Flexo- und Tiefdruck verdruckt. Alternativ werden Silber- Nanopartikel im Flexo-, Offset- und Inkjetdruck, im letztgenannten Verfahren auch Gold-Partikel, verwendet. Neben den polymeren und metallischen Materialien rückt zudem auch der Kohlenstoff als robustes Material für gedruckte elektronische Anwen- dungen in den Fokus dieser Technologie.

Zahlreiche polymere Halbleiter werden im Inkjetdruck prozessiert, wobei es sich häufig um Poylthiophene wie Poly(3-Hexylthiophen) (P3HT) und Poly-9,9- dioctylfluoren- cobithiophen (F8T2) handelt. Das letztgenannte Material wurde auch bereits im Tief- druck verdruckt. Verschiedene elektrolumineszente Polymere werden im Inkjetdruck verarbeitet, ebenso wie aktive Materialien für die Photovoltaik (z. B. Mischungen von P3HT mit Fulleren-Derivaten), die zum Teil auch im Siebdruck aufgetragen werden können (z. B. Mischungen von Polyphenylenvinylen- mit Fulleren-Derivaten). Druck- bare organische und anorganische Isolatoren bzw. Dielektrika existieren in großer Zahl und können in verschiedenen Druckverfahren verarbeitet werden.

Bauelemente und Anwendungen Nahezu alle für elektronische Anwendungen notwendigen Bauelemente werden auch in der gedruckten Elektronik hergestellt. Schwerpunkte der aktuellen Entwicklungen bil- den:

-OFETs, OLEDs und OPVCs,

-ferner auch Dioden, verschiedene Arten von Sensoren, Speicherelementen und Anzei- gesystemen sowie Antennen und Batterien.

-Häufig werden Elektroden und andere leitfähige Schichten in den Bauelementen ge- druckt. Insbesondere die Herstellung der Source/Drain- Elektroden von OFETs im In- kjetdruck und mittels Massendruckverfahren ist Gegenstand intensiver Entwicklungen.

-In OLEDs und OPVCs wird PEDOT:PSS als Beschichtung für die Anode bzw. als Anode selbst verwendet und kann im Inkjetdruck aufgetragen werden. In diesen beiden Bauelementen stellt der Druck der Kathode mangels geeigneter druckbarer Materialien noch eine große Herausforderung dar.

-Ebenso sind im Siebdruck aus metallhaltiger Farbe hergestellte RFID- Antennen in kommerziellen Systemen z. B. zum Diebstahlsschutz zu finden.

-Des Weiteren werden auch die Halbleiterschichten in den Bauelementen mittels Druckverfahren hergestellt. So werden beispielsweise der Inkjet- und der Tiefdruckfür die aktive Schicht von OFETs und der Inkjet- bzw. Siebdruck für die von OLEDs bzw. OPVCs eingesetzt. Vollständig gedruckte OFETs konnten im Inkjet- und Sieb- drucksowie mittels Massendruckverfahren hergestellt werden, im letztgenannten Fall wurde auch eine vollständig gedruckte integrierte Schaltung aus mehreren OFETs de- monstriert.

Integrierte Schaltungen aus OFETs, OLED-Displays und Solarzellen auf der Basis von OPVCs, die unter Verwendung von Druckverfahren hergestellt werden, sowie andere gedruckte Bauelemente und Baugruppen sollen überall dort Anwendung finden, wo die spezifischen Eigenschaften der gedruckten Elektronik von Vorteil sind, d. h. dort, wo einfache, kostengünstige, flexible und großflächige elektronische Bauteile benötigt werden.

Häufig wird in diesem Zusammenhang der Einsatz gedruckter RFID-Tags diskutiert, da die gedruckte Elektronik die Herstellung und Integration solcher Systeme zu im Ver- gleich mit konventionellen Systemen wesentlich geringen Kosten ermöglichen soll, so dass die Ausstattung auch großer Stückzahlen von Alltagsprodukten (sog. single -item- tagging) möglich wird. In dieser Vision sollen gedruckte RFID-Tags in Zukunft den bisher zur Warenidentifikation verwendeten Barcode ablösen.

Auf organischen, z. T. auch flüssigprozessierbaren Materialien beruhende RFID- Schal- tungen wurden bereits demonstriert, jedoch ist die Leistungsfähigkeit von gedruckten Schaltungen für diese Anwendung noch nicht ausreichend. Hingegen sind einfachere, vollständig gedruckte Identifikationssysteme bereits in Anwendungen auf dem Markt zu finden.

Auf dem Gebiet der OLED-Displays ist die Organische Elektronik am weitesten hin- sichtlich kommerzieller Produkte fortgeschritten. Intensive Bemühungen zielen darauf, durch den Einsatz von Druckverfahren die Herstellungskosten weiter zu senken. Eine wesentliche Herausforderung stellt dabei, neben dem Druck der Kathode, die Integrati- on der Ansteuerelektronik (backplane) dar. Bei den damit in Zusammenhang stehenden Visionen handelt es sich vor allem um biegsame und aufrollbare Displays sowie um großflächige, flexible und dünne Leuchtmittel.

Im Umfeld der Organischen Elektronik wurden auch andere Anzeigesysteme mit ähnli- chen Funktionen, wie z. B. das E-Paper, entwickelt, die z. T. kurz vor der Markteinfüh- rung stehen und in Zukunft ebenfalls mit Hilfe von Druckverfahren hergestellt werden sollen. Großflächige und flexible, auf kostengünstigen Substraten gedruckte Organische Solar- zellen sind eine weitere Vision, deren Realisierung im Rahmen der gedruckten Elektro- nik vorangetrieben wird. Jedoch ist auch dafür noch eine Reihe von Fragestellungen zu bewältigen, neben dem Druck der Kathode ist beispielsweise eine Erhöhung des Wir- kungsgrades für einen wirtschaftlichen Betrieb erforderlich.

Allgemein wird davon ausgegangen, dass bis zur Realisierung der mit der gedruckten Elektronik verbundenen Visionen noch einige Jahre vergehen, sich in der Zwischenzeit aber zunehmend einfache Anwendungen etablieren werden. Nicht zuletzt wegen der Möglichkeit der einfachen Integration zahlreicher Funktionalitäten wird die gedruckte Elektronik als eine der Schlüsseltechnologien für die Umsetzung neuer Paradigmen der Anwendung von Elektronik angesehen, die auf eine stärkere Vernetzung und umfassen- dere Durchdringung in vielen Lebensbereichen abzielen und mit denen Schlagworte wie „ubiquitous computing“ und„ambient intelligence“ verbunden sind.

Entwicklung der gedruckten Elektronik

Die Entwicklung der gedruckten Elektronik ist eng mit der der Organischen Elektronik verknüpft. Im Folgenden sind einige wichtige Meilensteine dieser Entwicklung aufge- führt.

vor 1986: Siebdruck von metallhaltigen Farben für Leiterbahnen in Elektrotech- nik/Elektronik, Verwendung von PEDOT:PSS als Antistatikbeschichtung, Verwendung organischer Photoleiter in der Elektrofotografie

1986: OFET

1986: OPVC

1987: OLED

1990: OFET mit flüssigprozessierter aktiver Schicht

1990: OLED mit flüssigprozessierter aktiver Schicht

1994: OFET auf flexiblem Substrat

1997 : OFET mit im Siebdruck hergestellter aktiver Schicht

1998: OLED mit im Inkjetdruck hergestellter Elektrode

1998: integriertes OLED/OFET-Pixel mit flüssigprozessierten aktiven Schichten 1998: OLED mit im Inkjetdruck hergestellter aktiver Schicht

1999: OP VC auf flexiblem Substrat

2000: OFET mit im Inkjetdruck hergestellten Elektroden

2000: OLED auf flexiblem Substrat

2001 : OFET mit im Inkjetdruck hergestellter aktiver Schicht

2001 : vollständig im Siebdruck hergestellter OFET

2001 : OP VC mit flüssigprozessierter aktiver Schicht

2001 : OP VC mit im Siebdruck hergestellter aktiver Schicht

2004: OPVC mit im Inkjetdruck hergestellter Elektrode und aktiver Schicht

2005 : vollständig im Inkjetdruck hergestellter OFET

2005: OFET mit im Offsetdruck hergestellten Elektroden aus PEDOT:PSS

2007 : vollständig mit Massendruckverfahren hergestellte integrierte Schaltung

38. P-Ink

P-Ink („photonische Tinte“) ist eine Technologie, die in dünnen und flexiblen - elek- tronisch angesteuerten - Displays eingesetzt wird, wobei die Erzeugung der Farben über photonische Kristalle gesteuert wird. Die darzustellende Farbe wird dabei über den Abstand zwischen den Kristallen gesteu- ert. Abhängig von diesem Abstand kann der Kristall nur von Licht mit einer bestimm- ten Wellenlänge durchdrungen und an der dahinterliegenden Reflexionsschicht reflek- tiert werden. Wenn keine Spannung angelegt wird, wird der Zustand der Kristalle und damit die Anzeige für mehrere Tage aufrechterhalten, wodurch Displays mit P-Ink- Technik nur beim Umschalten der Anzeige Elektrische Leistung benötigen.

Funktionsprinzip von P-Ink

Der Vorteil von P-Ink gegenüber den meisten anderen Anzeigetechniken besteht darin, dass ein einzelnes Bildpixel mehrere Farben gleichzeitig ohne Helligkeitsverlust dar- stellen kann. Das Prinzip wurde an der University of Toronto entwickelt. Um die Technologie zur Marktreife entwickeln zu können, wurde die Firma Opalux gegründet.

39. MicroLED

Mikro LED - auch MicroLED, mLED oder pLED genannt - ist eine Flachbildschirm- technologie auf Basis von Leuchtdioden (LED). Wie der Name besagt, basieren Mikro- LEDs auf Anordnungen (Arrays) mikroskopisch kleiner Licht- Ausstrahlender-Dioden (Light Emitting Diodes LEDs), die die einzelnen Bildelemente (Pixel) bilden.

Gegenüber den älteren Flüssigkristallanzeigen (Liquid Crystal Displays LCDs) bieten MicroLED-Anzeigen einen deutlich höheren Kontrast, wesentlich schnellere Reakti- onszeiten und einen höheren Wirkungsgrad bezüglich Lichtstrom pro Leistung. Micro- LEDs (pLEDs) gelten als Nachfolger der organischen Leuchtdioden OLEDs. Im Ge- gensatz zu den aus Kohlenstoff bestehenden OLEDs bestehen pLEDs aus Indiumgalli- umnitrid InGaN Auf pLEDs basierende anorganische Halbleiter wurden erstmals von einer Forschungsgruppe um Hongxing Jiang und Jingyu Lin von Texas Tech University im Jahr 2000 entwickelt. pLEDs sind wegen ihres geringen Energieverbrauchs sowohl für sehr kleine Anzeigen, wie Smartwatches und Smartphones, als auch sehr große Anzeigen, wie Riesenfemseh- schirme, geeignet.

LCD ist das Plasma oder die Röhre von morgen: eine Technologie, die von einer oder mehreren abgelöst werden wird. Heiß gehandelte Kandidaten dafür sind LED, OLED sowie MicroLED (weitere international gebräuchliche Abkürzungen: Micro- LED, mLED oder pLED). MicroLED wurde im Jahr 2000 erstmals von Forschern vorgestellt. Wie OLED kann mLED mit absolut hervorragenden Schwarz- und Kontrastwerten punkten. Zudem ist pLED sehr langlebig und energieeffizient, was gerade in Profi - Szenarien interessant ist (Betriebs- und Laufzeiten, Unterhalt und Stromkosten). Im Un- terschied zu OLED basiert MicroLED auf GaN, also einer LED- Technologie. Gegen- über OLED verweisen mLED -Befürworter auf eine höhere Lebensdauer sowie die hohe Luminanz der selbstleuchtenden LEDs.

Jetzt hat Samsung zur derzeit laufenden CES 2018 ein Consumer-Produkt - mutmaß- lich im Preissegment High End - präsentiert, das einmal mehr zeigt, dass zumindest der große koreanische Hersteller MicroLED für eine der Zukunftstechnologien hält - und zwar für Screens in allen möglichen Größen und B2C- und B2B-An Wendungen:„The Wall“, ein 146" mLED-TV, der weltweit erste modulare in dieser Klasse. Der Vorteil ist offensichtlich: Wie bei LED-Walls lassen sich aus Modulen sehr formfrei Screens in theoretisch beliebiger Größe bauen oder personalisieren.

Bereits in den letzten Jahren hatten auch chinesische Hersteller erste TVs mit LED- Modulen als Proof-of-Concept präsentiert, dies allerdings zumeist ausschließlich auf dem heimischen Markt. Als weltweit erster Micro-LED-TV gilt der bereits 2012 von Sony vorgestellte Prototyp eines 55" Full HD„Crystal-TVs“. Er gilt als Vorfahr des CLEDIS (Canvas Display). Die selbst emittierende Technologie CLEDIS nutzt ultrafei- ne LEDs mit R (Rot), G (Grün) und B (Blau) auf der Displayoberfläche. Jeder Pixel be- steht aus einer separaten ultrafeinen R-, G- und B-LED und die Lichtquelle ist nur 0,003 mm2 groß. Die verbleibende Fläche ist zu mehr als 99% schwarz.

Für Business to Business-Anwendungen haben sowohl Samsung wie auch andere Play- er wie Sony erste Produkte auf den Markt gebracht, die MicroLED -Architekturen nut- zen: Sony hat seine Lösung CLEDIS, Samsung den Cinema-LED-Screen. Dabei setzen beide Konzerne auf extrem kleine, selbstleuchtende LEDs. Während CLEDIS auf der ISE 2017 in der Wirkung bereits überzeugte, könnten im Februar 2018 auch andere Hersteller neue MicroLED -Produkte auf der Fachmesse zeigen. Samsung ist zumindest ein Kandidat dafür - äußert sich derzeit allerdings noch nicht zum Thema.

Hätte, hätte, Lieferkette: Es gibt aus der Supply Chain der Displayindustrie mehr als ei- nen Hinweis darauf, dass pLED noch in diesem Jahr in spezifischen Digital Signage- Produkten eingesetzt werden könnte - natürlich keine Garantie, aber doch starke Indi- zien. Denn auch der nun gezeigte 146" Micro LED-TV von Samsung war laut Marktge- rüchten aus dem Herbst 2017 zufolge erwartet worden, allerdings als 150" TV.

Erstmals im Mai 2017 sowie dann im Herbst 2017 wurden Marktgerüchte laut, nach denen Samsung den 2014 gegründeten taiwanesischen mLED-Spezialisten PlayNitride Inc. kaufen, oder sich an diesem beteiligen würde. Während PlayNitride das dementier- te, äußerte sich Samsung nicht zu den Berichten. Ende 2017 hieß es vonseiten PlayNitrides, dass es Kaufangebote von mehreren Firmen gebe. Bislang sind LED- Experte Epistar sowie der taiwanesische Halbleiterhersteller United Microelectronics Corporation (UMC) die einzig bekannten Anteilseigner von PlayNitride.

Aber auch ohne Kauf setzt Samsung auf pLED: Eigenentwicklungen sowie mögliche Lizenzierungen machen dies möglich. Wie im Falle des LED-Cinema-Screens ersicht- lich, hat der Konzern hier schon ein erstes serienreifes Produkt auf den Markt

- und in die reale Welt der Projekt-Installationen - gebracht.

Der für gewöhnlich mehr als gut unterrichtete Branchendienst Digitimes berichtete kürzlich von einem weiteren Hersteller, der konkrete MicroLED -Produkte in der Pipe- line hat, der südkoreanische Hersteller Lumens (nicht zu verwechseln mit dem namens- ähnlichen taiwanesischen Hersteller Lumens, der auf der ISE 2018 unter den Ausstel- lern sein wird).

Dem Bericht von Digitimes zufolge sprechen Industriequellen von der Entwicklung von 0,57" MicroLED-Screens bis hin zu einem 100" Digital Signage-Screen, der 100 bis 300 Mikrometer„große“ pLED Module nutzen solle

Ob auf der ISE oder bei der InfoComm oder einer der großen asiatischen Messen: Man sollte nicht zu überrascht sein, wenn in diesem Kalenderjahr der erste große Dis- playhersteller einen MicroLED Digital Signage-Screen präsentiert - etwa in der Klasse der 98" Large Format Displays. 40. LED-Femseher

LED-Femseher sind Fernsehgeräte, bei denen Leuchtdioden (LEDs) entweder zur Hin- tergrundbeleuchtung oder zur Erzeugung des Bildes selbst eingesetzt werden.

Die folgende Begriffsklärung gilt auch für die meisten Computermonitore, welche zur Bilddarstellung sehr ähnliche Technik verwenden. Meist handelt es sich um LC- Dis- plays (LCDs), deren Hintergrundbeleuchtung aus Leuchtdioden besteht (siehe LED- Hintergrundbeleuchtung). Dafür werden sowohl weiße, wie auch zu weiß mischbare farbige Leuchtdioden verwendet, die hinter der Flüssigkristallanzeige angeordnet sind. Der Begriff„LED-Femseher“ ist bei dieser Art von Anzeigetechnik irreführend, jedoch üblich. Korrekt müssten solche Geräte als „LED- hintergrundbeleuchtete LCD- Femseher“ bezeichnet werden.

Vergleichsschema LCD/LED

Bis etwa 2008 wurden im Wesentlichen nur drei unterschiedliche Techniken für den Gebrauch zuhause angeboten, nämlich Flüssigkristallbildschirme, Plasmabildschirme und Projektionsanzeigen. Weil Flüssigkristallanzeigen nur das Licht modulieren, d. h., wie Lichtventile arbeiten und selbst kein Licht abgeben, wird für Fernsehgeräte eine flächige Beleuchtung hinter der Flüssigkristallanzeige angebracht, um die Bildinforma- tion im Durchlicht (Transmission) darzustellen. Im vereinfachten Schema sind derartige Flüssigkristallbildschirme als Anzeigetypen A und B bezeichnet, wobei die Flüssigkri- stallanzeige 1 das Licht entsprechend dem darzustellenden Bild moduliert.

Seit etwa 2009 werden im Handel LED-Femseher (engl. LED TV) und LED-Monitore angepriesen (Schema Anzeigetyp B). Dabei handelte es sich bis 2013 noch in praktisch allen Fällen um die bisherigen Flüssigkristallanzeigen zur Bilderzeugung. Neu ist nur die Hintergrundbeleuchtung dieser LCD-Femseher mittels Leuchtdioden (engl. LEDs; Schema: Teil 3, wobei ein nicht eingezeichneter Lichtverteiler für eine flächige Ausleuchtung sorgt).

Vergleich der Hintergrundbeleuchtungstechniken

Bis etwa 2008 wurden bei LCD-Femsehern praktisch ausschließlich Kaltkathodenröh- ren (Leuchtröhren) als Hintergrundbeleuchtung verwendet (Schema: Teil 2 in Kombi- nation mit einem nicht eingezeichneten flächigen Lichtverteiler). Die Verwendung von LEDs (Schema: Teil 3) anstelle von Leuchtröhren wird in der Produktwerbung hervor- gehoben, weil folgende Vorteile gegenüber der früheren Technik bestehen: [2] kompaktere Bauweise mit geringerer Tiefe des Gerätes

geringerer Stromverbrauch bei niedrigeren elektrischen Spannungen

kürzere Schaltzeiten (siehe dynamische Leuchtdiodenansteuerung)

geringere Abnahme der Lichtintensität und Veränderung des Farbspektrums im Laufe der Nutzung höhere Zuverlässigkeit und Lebensdauer

Einsatz von RGB-Kombinationen

Zusätzlich Vorteile ergeben sich bei speziellen Ausführungen der Leuchtdioden: Hier werden mehrere zusammengefügte Rot-Grün-Blau-Leuchtdiodenkombinationen hinter der Anzeigefläche verteilt angebracht (additive Farbmischung, full-array LED). Diese Art von Beleuchtung, abgestimmt auf die Farbfilter der Flüssigkristallanzeige, ergibt ein besseres Farbspektrum des Fernsehers, ist jedoch teurer als die Verwendung von Leuchtdioden entlang der Bildschirmperipherie (edge-lit).

Quantenpunkte für optimales Farbspektrum

Siehe auch : Quantenpunkt-Leuchtdiode

Mit Hilfe von Nanohalbleiterkristallen (Quantenpunkte, engl quantum dots), als Schicht auf einer Glasplatte oder Folie aufgebracht und durch blaue, kurzwellige LEDs (z. B. aus GaN) von hinten bestrahlt, kann das Spektrum der Hintergrundbeleuchtung von LCDs auf eine bisher unerreichte Art optimiert werden (Fachausdruck erweiterter Farbraum). Diese Form von Fluoreszenztechnik wird in verschiedenen Laboratorien weiterentwickelt. Die US-Firma 3M als bedeutender Lieferant von Hintergrundbeleuch- tungskomponenten für LCDs arbeitet mit Nanosys, Inc. an entsprechend beschichteten Folien. Schon seit mehreren Jahren ist auch die britische Firma Nanoco Group PLC in der Weiterentwicklung von Quantenpunkten tätig und hat mit asiatischen Herstellern von Flüssigkristallanzeigen und OLEDs Zusammenarbeitsverträge abgeschlossen. Auch die US-Firma QD Vision arbeitet mit asiatischen Firmen zusammen, welche die Hinter- grundbeleuchtung von LC-Anzeigen optimieren.

Als erste Firma hat Sony 2013 unter der schon früher benutzten Bezeichnung Trilumi- nos bestimmte hochwertige LCD-Femseher mit einer derartig optimierten LED- Hintergrundbeleuchtung auf den Markt gebracht. Dabei wird das Licht von blauen LEDs auf einer davor angebrachten Glasscheibe oder Folie durch unterschiedliche Quantum Dots in sehr reines, schmalbandiges Blau, Grün und Rot umgewandelt. Durch Kombination dieser drei Grundfarben entsteht eine optimale weiße Ausleuchtung der LC-Anzeige von hinten. Seither haben auch die koreanischen Firmen Samsung Electro- nics, LG Electronics wie auch chinesische Femsehgerätehersteller (TCL, Changhong, Hisense) LCD-Femseher mit LED- Hintergrundbeleuchtung durch eine Quantenpunkte - Schicht verbessert und an der CES-Messe 2015 vorgestellt. Samsung Electronics hat 2016 beschlossen, ihre hochwertigen Fernseher neu mit der Bezeichnung QLED zu vermarkten, um auf die Technik mit Quantenpunkten hinzuweisen. Damit soll auch der Übergang zu den sich bei Samsung noch in Entwicklung befindenden neuen Bildschir- men mit selbstleuchtenden QLEDs vorbereitet werden.

Dynamische Leuchtdiodenansteuerung abhängig vom Bildinhalt

Bisherige Flüssigkristallbildschirme haben einen beschränkten Kontrast, weil die Dar- stellung eines schwarzen Bildpunktes (Pixel) wegen der immer noch etwas durchschei- nenden Hintergrundbeleuchtung nicht vollständig dunkel war. Durch selektive Ansteue- rung der verteilten Leuchtdioden je nach Bildinhalt können dunkle Teile durch die re- duzierte lokale Beleuchtung (local dimming) dunkler gemacht und deshalb der Kontrast gesteigert werden. Die Anzahl der verteilt angebrachten Leuchtdioden (Schema B: Teil 3) ist viel kleiner als die Anzahl Pixel der Flüssigkristallanzeige. Deshalb lässt sich die erwähnte Kontraststeigerung nicht individuell für jeden Bildpunkt, sondern nur für eine größere Gruppe benachbarter Bildpunkte erzielen. Trotzdem kann mit dieser Technik der beste Kontrast aller LCD- Fernseher erreicht werden. Im Handel sind jedoch nur wenige Geräte mit dieser relativ teuren Hintergrundbeleuchtung als Kombination von Full-array LED mit Local Dimming erhältlich.

Echte LED-Anzeigen mit monolithischen Leuchtdioden

Anorganische, monolithisch hergestellte, einkristalline Leuchtdioden werden schon seit Anfang der 1970er Jahre als Anzeigeelemente verwendet. Beispiele waren die PULSAR-Armbanduhren mit rot leuchtender Digitalanzeige und die ersten Taschen- rechner. Viele Einzelheiten und Hinweise finden sich im Artikel Leuchtdiode. Einen Durchbruch brachte die Entwicklung von blauen LEDs, weil damit Kombinationen von LEDs zur Erzeugung von weißem Licht möglich wurden.

Monolithische LEDs werden auf einkristallinen Halbleiterscheiben (Wafers) hergestellt. Diese durch Kristallzüchtung hergestellten runden Scheiben haben heute einen Durch- messer von bis zu 30 cm. Wenn alle übrigen Probleme gelöst wären, könnte man damit keine größeren monolithischen LED-Bildschirme herstellen. In der Praxis werden dar- aus einzelne LEDs durch Zertrennen der Scheibe und individuelle elektrische Kontak- tierung gewonnen.

Großbildschirme im Freien (z. B. in Fußballstadien, Videowand) werden mit einer Vielzahl von individuellen Leuchtdioden realisiert.

Einen neuen Ansatz verfolgen sogenannte Mikro-LED-Anzeigen. Mikro-LED- Anord- nungen werden ebenfalls monolithisch im Batch- Verfahren auf einem geeigneten Sub- strat aus Saphir oder Silizium hergestellt. Das bevorzugte Material ist anorganisches, monokristallines Galliumnitrid (GaN), welches durch Epitaxie auf dem Substrat gebil- det wird. Im Gegensatz zur bisherigen Herstellung werden jedoch die Leuchtdioden an- schließend nicht zertrennt, sondern als Anzeigematrix beibehalten. Die dazu notwendige neuartige Struktur mit vielfachen Herausforderungen wie Dotie- rung für unterschiedliche Farben, Kontaktierung als Matrixanordnung, mechanische Stabilität bei Transfer vom Herstellsubstrat auf ein Anzeigesubstrat sind noch nicht der- art gelöst, dass solche Anzeigen für kommerzielle Produkte eingesetzt werden können. Die Firma Apple Inc. sieht Potential in dieser neuen Technik und hat deshalb das Pio- nieruntemehmen LuxVue Technology übernommen.

Anzeigen mit organischen Leuchtdioden (OLEDs)

Schon seit den 1950er Jahren wird Elektrolumineszenz in Schichten organischen Mate- rials erforscht. Inzwischen sind organische Halbleitermaterialien als OLED entwickelt worden, welche in Dünnschichttechnik als Anzeigeelemente geeignet sind. Im Schema ist diese Technik vereinfacht als Anzeigetyp C dargestellt. Die OLEDs 4 sind auf einem Substrat (oder zwischen zwei Substraten) in Dünnschichttechnik derart dicht aufge- bracht, dass sie als einzelne Pixel zur Bilderzeugung dienen.

Vorteile gegenüber Flüssigkristallanzeigen sind:

-OLEDs strahlen selbst Licht ab, brauchen somit keine Hintergrundbeleuchtung und bieten hohen Kontrast.

-potentiell niederigere Herstellungskosten grosser Bildschirme als noch 2017 [19] und geringerer Stromverbrauch bei Einsatz des Herstellverfahrens mittels Metallmaske -OLEDs können in verschiedenen Farben Licht abgeben, während bei LCDs dafür zu- sätzliche Farbfilter notwendig sind.

-geringere Winkelabhängigkeit beim Betrachten

-kürzere elektrooptische Ansprechzeiten

Als wichtigster Nachteil gilt die beschränkte Lebensdauer. Weitere Nachteile sind die UV-Empfmdlichkeit und die derzeit noch hohen Herstellungskosten. Samsung Electro- nics als bedeutender Hersteller von sowohl Flüssigkristall- wie auch OLED- Anzeigen hat 2016 beschlossen, für zukünftige großformatige Fernseher auf OLEDs zu verzich- ten. Neben den erwähnten Nachteilen wird bei OLEDs auch das Einbrennen bestimmter Muster als weiterer Nachteil genannt. Der Hersteller setzt - im Gegensatz zum Wett- bewerb - QLEDs anstelle von OLEDs bei der Femsehertechnologie ein.

Mit solchen Anzeigen werden viele kleine bis mittelgroße portable Geräte wie Digital- kameras, Smartphones (z. B. Samsung Galaxy S), Tablets wie auch Laptops ausgerü- stet. Im Januar 2012 wurden auf der Consumer Electronics Show (CES) in Las Vegas erste Prototypen von 55-Zoll-OLED-Femsehem der Firmen LG Display und Samsung gezeigt. OLED -Bildschirme sind inzwischen bei großformatigen Fernsehern allgemein erhältlich geworden. Häufig werden diese Displays unter dem Begriff AMOLED (engl active-matrix organic light emitting diode) zusammengefasst.

41. Organische Leuchtdiode

Eine organische Leuchtdiode (englisch organic light emitting diode, OLED) ist ein leuchtendes Dünnschichtbauelement aus organischen halbleitenden Materialien, das sich von den anorganischen Leuchtdioden (LED) dadurch unterscheidet, dass die elek- trische Stromdichte und Leuchtdichte geringer und keine einkristallinen Materialien er- forderlich sind. Im Vergleich zu herkömmlichen (anorganischen) Leuchtdioden lassen sich organische Leuchtdioden daher in Dünnschichttechnik kostengünstiger herstellen, ihre Lebensdauer und Lichtausbeute ist jedoch geringer als die herkömmlicher Leucht- dioden.

Die OLED-Technik wird für Bildschirme in Smartphones, Tablet-Computem wie auch in größerflächigen Fernsehern und Computermonitoren eingesetzt. Ein weiteres Ein- satzgebiet ist die großflächige Raumbeleuchtung. Aufgrund der Materialeigenschaften ist auch eine mögliche Verwendung der OLEDs als biegsamer Bildschirm interessant.

OLED-Display

In den 1950er Jahren wurde die Elektrolumineszenz in organischen Materialien von A.Bemanose an der Universität Nancy in Frankreich entdeckt. Stoffe wie Acridinoran- ge wurden in dünnen Filmen aus Cellulose oder Zellophan deponiert oder gelöst und einem Wechselstromfeld ausgesetzt. Dieser Mechanismus basiert auf der direkten An- regung von Farbstoffmolekülen oder Elektronen.

Martin Pope und Mitarbeiter der New York University entwickelten 1960 ohmsche Elektrodenkontakte zur Injektion von Ladungsträgern in organische Kristalle im unbe- leuchteten Zustand. Im Weiteren beschrieben sie die nötigen energetischen Anforde- rungen (Austrittsarbeiten) für Elektrodenkontakte, die Elektronen bzw. Löcher (Defektelektronen) in einen organischen Halbleiter injizieren können. Solche Kontakte sind die Basis für die Ladungsinjizierung bei allen modernen OLED -Geräten.

Im Jahr 1963 entdeckte ebenfalls Popes Gruppe die erste Gleichspannungs (DC)- Lu- mineszenz unter Vakuum an einem reinen Anthracen-Einkristall und an Tetracen- do- tierten Anthracen-Kristallen mit einer kleinen Silberelektrode bei 400 V. Dieser Me- chanismus basiert auf feldbeschleunigter Elektronenanregung der molekularen Fluores- zenz. Popes Gruppe berichtete 1965 zum einen von Elektrolumineszenz in Anthracen- Kristallen, ausgelöst durch die Rekombination von thermalisierten Elektronen und Lö- chern ohne ein äußeres elektrisches Feld, und zum anderen, dass bei Anthracen das Leit-Energieniveau höher als das Exziton-Energieniveau ist.

Ebenfalls 1965 produzierten Wolfgang Helfrich und W. G. Schneider vom National Re- search Council of Canada Elektrolumineszenz durch doppelt injizierte Rekombination zum ersten Mal in einem Anthracen-Einkristall unter der Verwendung von Löcher- und Elektronen-injizierenden Elektroden, den Vorläufern der modernen doppel- injizierenden Geräte.

Im selben Jahr patentierten Forscher von Dow Chemical 1965 ein Verfahren zur Her- stellung von Elektrolumineszenz-Zellen aus einem elektrisch isolierten, 1 mm dünnen Film aus geschmolzenem Phosphor mit eingearbeitetem Anthracenpulver, Tetracen und Graphitpulver, das mit Wechselspannung (100-3000 Hz, 500-1500 V) betrieben wurde. Dieser Mechanismus basiert auf elektronischer Anregung von Graphit und Anthracen- Molekülen an den Kontakten. Die Leistungsfähigkeit war durch die schlechte elektrische Leitfähigkeit der damaligen organischen Materialien begrenzt. Diese Beschränkung wurde durch die Entdeckung und Entwicklung von hoch-leitfähigen Polymeren verbessert. So beobachtete Roger Partridge vom britischen National Physical Laboratory 1975 erstmals die Elektrolumi- neszenz von Polymerfilmen. Der später patentierte und 1983 in einer Fachzeitschrift veröffentlichte Aufbau bestand aus einer bis zu 2,2 pm dünnen Folie aus Poly(N- Vinylcarbazol) zwischen zwei ladungsinjizierenden Elektroden.

Ching W. Tang und Steven Van Slyke von der Eastman Kodak Company berichteten 1987 erstmals von einem Diodenaufbau. [18] Dabei wurde eine neuartige Zwei- schichtstruktur mit getrennter loch- und elektronentransportierender Schicht verwendet, so dass Rekombination und Lichtemission in der Mitte der organischen Schicht auftra- ten. Das führte zu einer niedrigeren Betriebsspannung und höherer Effizienz und stellte den Übergang zu der heutigen OLED -Forschung und - Produktion dar.

1990 entwickelten J. H. Burroughes und Mitarbeiter von der University of Cambridge eine effiziente, grünes Licht emittierende Anordnung unter der Verwendung von 100 nm dünnem Film aus Poly(p-phenylen-vinylen). 1996 wurde das erste Gerät mit ei- nem leuchtenden Polymer von Cambridge Display Technology (CDT) vorgestellt.[20] Im November 2006 kreierten Wissenschaftler am Pacific Northwest National Laborato- ry (PNNL) eine blaue OLED mit einer Quantenausbeute von 11 % bei 800 cd/m 2 .

Aufbau und Funktionsweise

Schema einer OLED: 1. Kathode, 2. Emitterschicht, 3. Rekombination der Ladungsträ- ger mit Emission eines Photons, 4. Lochleitungsschicht, 5. Anode

OLEDs sind aus mehreren Schichten aufgebaut. Dabei wird meist auf die Anode, beste- hend aus Indium-Zinn-Oxid (ITO), die sich auf einer Glasscheibe befindet, eine Loch- leitungsschicht (englisch hole transport layer, HTL) aufgebracht. Zwischen ITO und HTL wird - abhängig von der Herstellungsmethode - oft noch eine Schicht aus PEDOT/PSS aufgebracht, die zur Absenkung der Injektionsbarriere für Löcher dient und die Eindiffusion von Indium in den Übergang verhindert. Auf die HTL wird eine Schicht aufgebracht, die entweder den organischen Farbstoff enthält (5 bis 10 Prozent) oder - eher selten - vollständig aus dem Farbstoff besteht, z. B. Aluminium- tris(8- hydroxychinolin), Alq3. Diese Schicht bezeichnet man als Emitterschicht (engl emitter layer, EL).

Auf diese wird optional noch eine Elektronenleitungsschicht (engl electron transport layer, ETL) aufgebracht. Zum Abschluss wird eine Kathode, bestehend aus einem Me- tall oder einer Legierung mit geringer Elektronenaustrittsarbeit wie zum Beispiel Calci- um, Aluminium, Barium, Ruthenium, Magnesium-Silber-Legierung, im Hochvakuum aufgedampft. Als Schutzschicht und zur Verringerung der Injektionsbarriere für Elek- tronen wird zwischen Kathode und E(T)L meistens eine sehr dünne Schicht aus Li- thiumfluorid, Caesiumfluorid oder Silber aufgedampft.

Die Elektronen (d. h. die negativen Ladungsträger) werden nun von der Kathode inji- ziert, während die Anode die Löcher (d. h. die positiven Ladungsträger) bereitstellt. Elektronen und Löcher driften aufeinander zu und treffen sich im Idealfall in der EL, weshalb diese Schicht auch Rekombinationsschicht genannt wird. Elektronen und Lö- cher bilden einen gebundenen Zustand, den man als Exziton bezeichnet.

Abhängig vom Mechanismus stellt das Exziton bereits den angeregten Zustand des Farbstoffmoleküls dar, oder der Zerfall des Exzitons stellt die Energie zur Anregung des Farbstoffmoleküls zur Verfügung. Dieser Farbstoff hat verschiedene Anregungszu- stände. Der angeregte Zustand kann in den Grundzustand übergehen und dabei ein Pho- ton (Lichtteilchen) aussenden.

Die Farbe des ausgesendeten Lichts hängt vom Energieabstand zwischen angeregtem und Grundzustand ab und kann durch Variation der Farbstoffmoleküle gezielt verändert werden. Ein Problem stellen nichtstrahlende Triplett-Zustände dar. Diese können durch Zugabe von sogenannten„Exzitoren“ wieder gelöst werden. Verwendung und Auswahl organischer Materialien

Für die aus Polymeren gefertigten organischen LEDs hat sich die Abkürzung PLED (engl polymer light emitting diode) durchgesetzt. Als SOLED oder SMOLED werden seltener die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeich- net. In PLEDs werden als Farbstoffe häufig Derivate von Poly(p-phenylen- vinylen) (PPV) verwendet. In jüngster Zeit werden Farbstoffmoleküle eingesetzt, die eine vier- fach höhere Effizienz als mit den oben beschriebenen fluoreszierenden Molekülen er- warten lassen. Bei diesen effizienteren OLEDs werden metall- organische Komplexe verwendet, bei denen die Lichtaussendung aus Triplett- Zuständen erfolgt (Phosphoreszenz).

Diese Moleküle werden auch Triplett-Emitter genannt; [25] [26] der Farbstoff kann auch durch das Umgebungslicht angeregt werden, was zu Lumineszenz führen kann. Ziel ist es allerdings, selbstleuchtende Bildschirme herzustellen, die die organische Elektrolu- mineszenz nutzen.

In den letzten Jahren sind Simulationstechniken entwickelt worden, die inzwischen ausgehend von der chemischen Zusammensetzung wichtige Eigenschaften von OLEDs komplett am Computer berechnen können. Diese Methoden erlauben eine kostengünsti- ge Vorauswahl von Molekülen, ohne aufwändige Synthese und experimentelle Charak- terisierung.

Herstellungsverfahren bei AMOLED-Bildschirmen

Bei AMOLED-(Aktivmatrix-OLED)-Bildschirmen gibt es zwei bedeutende Herstel- lungsverfahren, die die Produktionskosten, die technischen Eigenschaften und damit das Anwendungsfeld bestimmen. Zum einen gibt es RGB-Side-by-Side- AMOLED- Bildschirme (SBS) unter anderem basierend auf einer fine metal mask (FMM)- Technologie und zum anderen weiße OLEDs mit einem Farbfilter (WOLED) emitter layer, EL). Auf diese wird optional noch eine Elektronenleitungsschicht (engl electron transport layer, ETL) aufgebracht. Zum Abschluss wird eine Kathode, bestehend aus einem Metall oder einer Legierung mit geringer Elektronenaustrittsarbeit wie zum Bei- spiel Calcium, Aluminium, Barium, Ruthenium, Magnesium-Silber-Legierung, im Hochvakuum aufgedampft. Als Schutzschicht und zur Verringerung der Injektionsbar- riere für Elektronen wird zwischen Kathode und E(T)L meistens eine sehr dünne Schicht aus Lithiumfluorid, Caesiumfluorid oder Silber aufgedampft.

Die Elektronen (d. h. die negativen Ladungsträger) werden nun von der Kathode inji- ziert, während die Anode die Löcher (d. h. die positiven Ladungsträger) bereitstellt. Elektronen und Löcher driften aufeinander zu und treffen sich im Idealfall in der EL, weshalb diese Schicht auch Rekombinationsschicht genannt wird. Elektronen und Lö- cher bilden einen gebundenen Zustand, den man als Exziton bezeichnet.

Abhängig vom Mechanismus stellt das Exziton bereits den angeregten Zustand des Farbstoffmoleküls dar, oder der Zerfall des Exzitons stellt die Energie zur Anregung des Farbstoffmoleküls zur Verfügung. Dieser Farbstoff hat verschiedene Anregungszu- stände. Der angeregte Zustand kann in den Grundzustand übergehen und dabei ein Pho- ton (Lichtteilchen) aussenden. Die Farbe des ausgesendeten Lichts hängt vom Energie- abstand zwischen angeregtem und Grundzustand ab und kann durch Variation der Farb- stoffmoleküle gezielt verändert werden. Ein Problem stellen nichtstrahlende Triplett - Zustände dar. Diese können durch Zugabe von sogenannten„Exzitoren“ wieder gelöst werden.

Verwendung und Auswahl organischer Materialien

Für die aus Polymeren gefertigten organischen LEDs hat sich die Abkürzung PLED (engl polymer light emitting diode) durchgesetzt. Als SOLED oder SMOLED werden seltener die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeich- net. In PLEDs werden als Farbstoffe häufig Derivate von Poly(p-phenylen- vinylen) (PPV) verwendet. In jüngster Zeit werden Farbstoffmoleküle eingesetzt, die eine vier- fach höhere Effizienz als mit den oben beschriebenen fluoreszierenden Molekülen er- warten lassen. Bei diesen effizienteren OLEDs werden metall- organische Komplexe verwendet, bei denen die Lichtaussendung aus Triplett- Zuständen erfolgt (Phosphoreszenz).

Diese Moleküle werden auch Triplett-Emitter genannt; [25] [26] der Farbstoff kann auch durch das Umgebungslicht angeregt werden, was zu Lumineszenz führen kann. Ziel ist es allerdings, selbstleuchtende Bildschirme herzustellen, die die organische Elektrolu- mineszenz nutzen.

In den letzten Jahren sind Simulationstechniken entwickelt worden, die inzwischen ausgehend von der chemischen Zusammensetzung wichtige Eigenschaften von OLEDs komplett am Computer berechnen können. [28] [29] Diese Methoden erlauben eine ko- stengünstige Vorauswahl von Molekülen, ohne aufwändige Synthese und experimentel- le

Charakterisierung: Herstellungsverfahren bei AMOLED-Bildschirmen

Bei AMOLED-(Aktivmatrix-OLED)-Bildschirmen gibt es zwei bedeutende Herstel- lungsverfahren, die die Produktionskosten, die technischen Eigenschaften und damit das Anwendungsfeld bestimmen. [30] Zum einen gibt es RGB-Side-by-Side- AMOLED-Bildschirme (SBS) unter anderem basierend auf einer fine metal mask (FMM)-Technologie und zum anderen weiße OLEDs mit einem Farbfilter unter Labor- bedingungen bereits 1987 gedruckt. Leitmesse mit Kongress für die gedruckte Elektro- nik ist jährlich die LOPEC Messe in München.[42] Auf der Drupa 2012, Leitmesse der Druckindustrie, wurden u. a. gedruckte OLEDs als Milliardenmarkt.

Das größte technische Problem stellt die vergleichsweise geringe Lebensdauer mancher aus organischen Materialien bestehenden Bauelemente dar. Bei (O)LEDs bezeichnet man als Lebensdauer die mittlere Betriebszeit, nach der die Leuchtdichte auf die Hälfte abgesunken ist. Dabei haben blaue OLEDs die geringste Lebensdauer. Für weiße Licht- quellen, wie bei Monitoren, ist für die insgesamt nutzbare Lebensdauer daher die blaue Komponente die begrenzende. 2011 wurden für weiße Lichtquellen 5000 Stunden (bei 1000 cd/m 2 ) und 12.000 Stunden (bei 100 cd/m 2 ) angegeben. Im Vergleich dazu weisen handelsübliche weiße LEDs für die Hintergrundbeleuchtung bei LCD -Monitoren eine mittlere Betriebszeit in der Größenordnung von 30.000 Stunden auf.

Die Lebensdauer von OLEDs ist temperaturabhängig: Eine gut gekühlte OLED (gleich welcher Farbe) mit geringer Anfangsleuchtstärke hat immer eine höhere Lebensdauer als eine OLED, die ohne Kühlung von Anfang an mit der maximalen Leuchtstärke be- trieben wird. Der Grund sind Diffusionsprozesse in der OLED, die bei höheren Tempe- raturen schneller ablaufen. Die Lebensdauer bei mittlerer bis geringer Helligkeit wird aus dem Wert bei maximaler Helligkeit extrapoliert, da der Test von OLED-Materialien bei geringer Leuchtstärke über mehrere Zehn- bis wenige Hunderttausende von Stunden nicht praktikabel ist.

Ein weiterer Nachteil der OLED ist die im Vergleich zu Leuchtdioden geringere Licht- ausbeute im Bereich von 40 lm/W bis 60 lm/W bei handelsüblichen OLEDs. Spitzen- werte von ausgesuchten Labormustem bei OLEDs erzielen Werte knapp über 100 lm/W. Herkömmliche Leuchtdioden für Beleuchtungszwecke erzielen Werte von 200 lm/W, bei speziell optimierten LEDs bis knapp über 300 lm/W.

Neben geringerer Lebensdauer und Lichtausbeute reagieren OLEDs auch auf bestimmte äußere Stoffe empfindlich. So kann neben Wasser, durch Luftfeuchtigkeit allgegenwär- tig, auch eindringender Sauerstoff das organische Material zerstören.

Daher ist es wichtig, das Display hermetisch zu kapseln und vor äußeren Einflüssen zu schützen. Die nötige starre Kapselung beeinträchtigt die Flexibilität. Durch Korrosion mit Sauerstoff ist vor allem die hochreaktive Injektionsschicht aus Calcium und Barium gefährdet. Typische Versagenserscheinungen sind kreisrunde, wachsende nichtleuch- tende Bereiche, sogenannte„Dark Spots“. Ursache ist häufig eine Partikelbelastung beim Aufdampfen der Metallschichten. Auch die mikroskopischen Kanten der Mehr- schichtstruktur werden durch Korrosion unterwandert, was zur Abnahme der effektiv leuchtenden Pixelfläche bei Bildschirmanwendungen führt. Kommerzielle OLEDs auf flexiblem Substrat befinden sich mit Stand 2017 in der Ein- führungsphase, da alle flexiblen Kunststoffsubstrate eine hohe Durchlässigkeit für Sau- erstoff und Luftfeuchtigkeit haben. Dünnstglas (Glas mit einer Dicke von höchstens et- wa 0,2 mm) ist in der Verarbeitung schwer handhabbar, außerdem ist das Anodenmate- rial Indiumzinnoxid ein Hartstoff und spröde. Wiederholtes Ein- und Ausrollen um ei- nen geringen Radius führt zum Brechen und schnellen Versagen (Widerstandsanstieg) der Anode.

OLEDs könnten in vielen Anwendungen die heute gebräuchlichen LCDs sowie Plas- mabildschirme ersetzen. Die Lebensdauer gibt noch einige Probleme auf, denn die ro- ten, grünen und blauen Leuchtpunkte altem unterschiedlich schnell. Durch dieses unre- gelmäßige Altem der Einzelfarben kommt es beim Gesamtbild im Laufe der Zeit zu Farbverschiebungen, die sich nur begrenzt durch eine - idealerweise automatische - Nachregelung (vor allem über die Verstärkung der Blauemission) ausgleichen lassen. Die Grundpatente für OLED-Strukturen stammen aus den 1980er Jahren. Dabei war Kodak führend. Seit 1980 sind zu dem Thema etwa 6600 Patente bekannt.

Forschungsschwerpunkte liegen in Japan, Südkorea und den USA. Die meisten Patente sind in Japan registriert, gefolgt von den USA und Europa. Deutschland liegt mit etwa 4,5 % auf Platz drei hinter den USA mit etwa 22 %.

Da selbstleuchtende OLED-Displays noch teurer als hintergrundbeleuchtete LC- Dis- plays sind, werden sie bisher nur in speziellen Anwendungen verwendet. Wegen der ge- ringeren Abmessungen bieten sie größere Gestaltungsfreiräume für den Geräteherstel- ler. Auch der Stromverbrauch der OLEDs ist oft niedriger, da sie keine Hintergrundbe- leuchtung benötigen.

Große OLED-Bildschirme sind bisher teurer als entsprechend große LCD- Bildschirme. Probleme stellen vor allem die Kapselung der Bauelemente und die aufwendigere An- steuerung der Pixel dar. Bei LCDs erfolgt die Ansteuerung mit geringer Leistung, da LCD-Pixel als elektrische Kapazitäten durch eine angelegte Spannung nur umgesteuert werden, die Lichtenergie wird von der Hintergrundbeleuchtung erzeugt. Im Gegensatz dazu müssen OLEDs selbst mit der für die Lichtabgabe erforderlichen Energie beauf- schlagt werden, um Elektrolumineszenz zu erzeugen. Sie sind stromgesteuert, weshalb die bisher verwendete, ausgereifte Technologie aus dem LCD-Bereich nicht direkt übertragen werden kann.

Bei kleinen OLED-Bildschirmen kann die Steuerung über eine sogenannte Passivmatrix erfolgen: Ein bestimmtes Pixel wird durch das Anlegen einer Spannung an eine Zeile und Spalte angesteuert, wofür zwei Leitungen notwendig sind. Für große Bildschirme ist diese Methode nicht ausreichend, weil die Bahnwiderstände linear mit der Größe zu- nehmen und damit die Treiberkraft nicht mehr ausreicht, um das jeweilige Pixel anzu- steuern. Zur Steuerung des Bildschirms muss hier eine Aktivmatrix eingesetzt werden, bei der jedes Pixel einzeln über einen eigenen Transistor adressiert wird, was vier Lei- tungen nötig macht; abgeleitet von Aktivmatrix-OLED (engl active matrix organic light emitting diode) wird die Technik unter den Begriffen AMOLED und Su- perAMOLED vertrieben. Die Bereitstellung von Schalt-(Spannungssignalen) wie auch Versorgungsstrom ist (wie bei Plasmabildschirmen) aufwendig und damit teuer und ei- ner der Hauptgründe für die hohen Kosten großer Bildschirme.

Farbdisplays mit AMOLEDs in einer PenTile-Matrixanordnung sind für die Erfindung anwendbar. Die als am neuesten angesehene Technik ist Super AMOLED+. Hier wurde die PenTile-Matrix entfernt, so dass jedes Pixel alle drei Grundfarben zur Verfügung hat. Demnach werden ohne Pentile-Matrix nicht mehr mehrere Pixel„zusammenge- schlossen“, um alle Farben zu mischen. Aufgrund dieser Änderung wirkt die Auflösung solcher Displays deutlich höher, und es stechen keine einzelnen Pixel hervor. Weitere Verbesserungen sind bessere Schwarzwerte, erhöhter Kontrast, mehr darstellbare Far- ben, geringerer Stromverbrauch und verringerte Dicke des Displays.

Allerdings ist der PenTile-Effekt bei sehr hohen Pixeldichten von weit über 300 ppi (pixel per inch) nicht oder bei genauer Betrachtung kaum wahrnehmbar. Dies ist einer der Gründe, warum Samsung bei neueren Produkten zu Full HD noch SuperAMOLED- Bildschirme einsetzen kann, ohne eine verminderte Qualität fürchten zu müssen.

Hersteller

Bedeutende Hersteller von Leuchtmitteln mittels OLED -Technik sind Osram, Konica- Minolta und OLEDWorks, während LG, Samsung SDI und AU Optronics wichtige Hersteller von OLED -Informationsanzeigen sind. Daneben gibt es eine Vielzahl weite- rer Hersteller. Philips und Osram stiegen 2004 bzw. 2007 aus dem Display- Geschäft aus und produzieren nur noch OLED -Leuchtmittel. Mitte 2015 zog sich Philips ganz aus der OLED-Produktion zurück und verkaufte die Produktionsanlage an OLED Works in Rochester, NY, USA.

Im Juni 2015 legte der Pharma- und Spezialchemiehersteller Merck KGaA an seinem Stammsitz in Darmstadt den Grundstein für ein neues Werk, das für die internationalen OLED-Elektronikhersteller die nötigen chemischen Basiselemente für die OLED- Technologie produzieren soll. Die Kosten für die neue Fabrikanlage betrugen 30 Mio. Euro. Die Anlage ging im September 2016 in Betrieb.

Im November 2015 verkündete die LG Group, in Südkorea ein Werk für OLEDs zu er- richten, das im ersten Halbjahr 2018 die Produktion aufnehmen soll. Die Investitions- kosten betragen angeblich 8,2 Mrd. Euro.

Während des Jahres 2016 hat Samsung Electronics als bedeutender Hersteller und Nut- zer von AMOLEDs angekündigt, dass in Zukunft großflächige Femsehbildschirme nicht mehr in OLED-Technik gefertigt werden. Neben beschränkter Lebensdauer wer- den Bildeinbrennerscheinungen und verhältnismäßig hohe Herstellkosten als Gründe genannt.

LCD ist das Plasma oder die Röhre von morgen: eine Technologie, die von einer oder mehreren abgelöst werden wird. Heiß gehandelte Kandidaten dafür sind LED, OLED sowie Micro LED (weitere international gebräuchliche Abkürzungen: Micro- LED, mLED oder pLED). MicroLED wurde im Jahr 2000 erstmals von Forschem vorgestellt. Wie OLED kann mLED mit absolut hervorragenden Schwarz- und Kontrastwerten punkten. Zudem ist pLED sehr langlebig und energieeffizient, was gerade in Profi - Szenarien interessant ist (Betriebs- und Laufzeiten, Unterhalt und Stromkosten). Im Un- terschied zu OLED basiert MicroLED auf GaN, also einer LED- Technologie. Gegen- über OLED verweisen mLED-Befurworter auf eine höhere Lebensdauer sowie die hohe Luminanz der selbstleuchtenden LEDs.

Jetzt hat Samsung zur derzeit laufenden CES 2018 ein Consumer-Produkt - mutmaß- lich im Preissegment High End - präsentiert, das einmal mehr zeigt, dass zumindest der große koreanische Hersteller MicroLED für eine der Zukunftstechnologien hält - und zwar für Screens in allen möglichen Größen und B2C- und B2B- An Wendungen:„The Wall“, ein 146" mLED-TV, der weltweit erste modulare in dieser Klasse. Der Vorteil ist offensichtlich: Wie bei LED-Walls lassen sich aus Modulen sehr formffei Screens in theoretisch beliebiger Größe bauen oder personalisieren.

Bereits in den letzten Jahren hatten auch chinesische Hersteller erste TVs mit LED- Modulen als Proof-of-Concept präsentiert, dies allerdings zumeist ausschließlich auf dem heimischen Markt. Als weltweit erster Micro-LED-TV gilt der bereits 2012 von Sony vorgestellte Prototyp eines 55" Full HD„Crystal-TVs“. Er gilt als Vorfahr des CLEDIS (Canvas Display). Die selbst emittierende Technologie CLEDIS nutzt ultrafei- ne LEDs mit R (Rot), G (Grün) und B (Blau) auf der Displayoberfläche. Jeder Pixel be- steht aus einer separaten ultrafeinen R-, G- und B-LED und die Lichtquelle ist nur 0,003 mm2 groß. Die verbleibende Fläche ist zu mehr als 99% schwarz.

Für Business to Business-Anwendungen haben sowohl Samsung wie auch andere Play- er wie Sony erste Produkte auf den Markt gebracht, die MicroLED -Architekturen nut- zen: Sony hat seine Lösung CLEDIS, Samsung den Cinema-LED-Screen. Dabei setzen beide Konzerne auf extrem kleine, selbstleuchtende LEDs. Während CLEDIS auf der ISE 2017 in der Wirkung bereits überzeugte, könnten im Februar 2018 auch andere Hersteller neue MicroLED -Produkte auf der Fachmesse zeigen. Samsung ist zumindest ein Kandidat dafür - äußert sich derzeit allerdings noch nicht zum Thema.

Hätte, hätte, Lieferkette: Es gibt aus der Supply Chain der Displayindustrie mehr als ei- nen Hinweis darauf, dass pLED noch in diesem Jahr in spezifischen Digital Signage- Produkten eingesetzt werden könnte - natürlich keine Garantie, aber doch starke Indi- zien. Denn auch der nun gezeigte 146" Micro LED-TV von Samsung war laut Marktge- rüchten aus dem Herbst 2017 zufolge erwartet worden, allerdings als 150" TV.

Erstmals im Mai 2017 sowie dann im Herbst 2017 wurden Marktgerüchte laut, nach denen Samsung den 2014 gegründeten taiwanesischen mLED -Spezialisten PlayNitride Inc. kaufen, oder sich an diesem beteiligen würde. Während PlayNitride das dementier- te, äußerte sich Samsung nicht zu den Berichten. Ende 2017 hieß es vonseiten PlayNitrides, dass es Kaufangebote von mehreren Firmen gebe. Bislang sind LED- Experte Epistar sowie der taiwanesische Halbleiterhersteller United Microelectronics Corporation (UMC) die einzig bekannten Anteilseigner von PlayNitride.

Aber auch ohne Kauf setzt Samsung auf pLED: Eigenentwicklungen sowie mögliche Lizenzierungen machen dies möglich. Wie im Falle des LED-Cinema-Screens ersicht- lich, hat der Konzern hier schon ein erstes serienreifes Produkt auf den Markt

- und in die reale Welt der Projekt-Installationen - gebracht.

Der für gewöhnlich mehr als gut unterrichtete Branchendienst Digitimes berichtete kürzlich von einem weiteren Hersteller, der konkrete MicroLED -Produkte in der Pipe- line hat, der südkoreanische Hersteller Lumens (nicht zu verwechseln mit dem namens- ähnlichen taiwanesischen Hersteller Lumens, der auf der ISE 2018 unter den Ausstel- lern sein wird).

Dem Bericht von Digitimes zufolge sprechen Industriequellen von der Entwicklung von 0,57" Micro LED-Screens bis hin zu einem 100" Digital Signage-Screen, der 100 bis 300 Mikrometer„große“ pLED Module nutzen solle. Ob auf der ISE oder bei der InfoComm oder einer der großen asiatischen Messen: Man sollte nicht zu überrascht sein, wenn in diesem Kalenderjahr der erste große Dis- playhersteller einen MicroLED Digital Signage-Screen präsentiert - etwa in der Klasse der 98" Large Format Displays.

42. Satellitenfunk

Satellitenfunk umfasst alle Funkanwendungen, die zur technischen Kommunikation über, beziehungsweise mit Satelliten oder satellitengestützten Netzen erforderlich sind. Die verwendeten Funkstellen, Empfangsanlagen und Speiseverbindungen dürfen dazu Frequenzbereiche nutzen, die den entsprechenden Funkdiensten zugewiesen sind. Die Funkverbindung zu Satelliten in der Erdumlaufbahn ist beschränkt durch die Opazität der Ionosphäre, also allgemein verständlich die Fähigkeit des Durchdringens der elek- tromagnetischen Welle der Erdatmosphäre, um überhaupt in der Erdumlaufbahn befind- liche Satelliten zu erreichen. Umgekehrt wäre ohne eine Reflexion der elektromagneti- schen Welle an den Schichten der Atmosphäre, bedingt durch die Krümmung der Erde, eine direkte Funkverbindung quer über den Erdball von beispielsweise Berlin, Deutsch- land nach Kapstadt, Südafrika gar nicht möglich.

Zum Satellitenfunk zählen u. a. folgende Anwendungen und Systeme : Satellitenfunk- system, Weltraumfunksystem, Satellitenfunknetz, Satellitenfunkverbindung, Speisever- bindung und/oder Funkstellen

Im Satellitenfunk können u. a. folgende Funkstellen Verwendung finden : Erdfunkstel- le, Weltraumfunkstelle, Mobile Erdfunkstelle, Ortsfeste Erdfunkstelle , Ortsfeste Land- funkstelle (Ortsfeste Funkstelle des mobilen Landfunkdienstes), Mobile Erdfunkstelle des Landfunkdienstes über Satelliten (Erdfunkstelle des festen Funkdienstes über Satel- liten) und/oder Küstenerdfunkstelle

43. Kabellose Übertragungsverfahren Kabellose Übertragungsverfahren sind Datenübertragungsverfahren, die den freien Raum (Luft bzw. Vakuum) als Übertragungsmedium nutzen. Für die Übertragung wird kein Kabel in Form eines elektrischen Leiters (Draht) oder Lichtwellenleiters benötigt - vor allem die Verfahren im Radiofrequenzbereich werden daher auch als drahtlose Übertragungsverfahren bezeichnet.

Die Übertragung erfolgt durch gerichtete oder ungerichtete elektromagnetische Wellen, wobei der Bereich des genutzten Frequenzbands je nach Anwendung und verwendeter Technik von wenigen Hertz (Niederfrequenz) bis hin zu mehreren hundert Terahertz (sichtbares Licht) variieren kann.

Eingesetzt werden kabellose Übertragungsverfahren vor allem in Anwendungsberei- chen, in denen kabelgebundene Übertragungstechniken nicht einsetzbar oder zu teuer sind, beispielsweise Satellitenkommunikation oder Richtfunk. Weitere Anwendungen sind in der Unterhaltungselektronik wie auch im industriellen Bereich zu finden.

Bekannte Beispiele sind Bluetooth, WLAN, ZigBee, NFC, Wibree oder WiMAX im Radiofrequenzbereich sowie IrDA und optischer Richtfunk (FSO) im infraroten bzw. optischen Frequenzbereich.

44. Car2Car Communication

Mit Car-to-Car Communication (Car2Car oder C2C) - im englischen Sprachraum unter Vehicle-to-Vehicle (V2V) geläufig - bezeichnet man den Austausch von Informationen und Daten zwischen Kraftfahrzeugen mit dem Hintergrund, dem Fahrer frühzeitig kriti- sche und gefährliche Situationen zu melden. Hierzu gibt es verschiedene Projekte in Europa, die letztlich alle die Erhöhung der Sicherheit im Verkehr sowie die Optimie- rung des Verkehrsflusses anstreben. Car2Car ist ein Spezialfall von Car2X, der Kom- munikation von Fahrzeugen mit ihrer Umgebung (neben anderen Verkehrsteilnehmern insbesondere der Infrastruktur). Das häufig genannte Beispiel: Ein Auto kommt auf einer unübersichtlichen Landstraße vor einem Hindernis gerade noch zu stehen. Sekunden später wird ein nachfolgendes sich näherndes Fahrzeug automatisch per Summton und mit einem Pannensymbol, ein- geblendet in die Windschutzscheibe, vor der Situation gewarnt. Der Fahrer kann recht- zeitig die Geschwindigkeit verringern, weil das vorausfahrende Fahrzeug eine Warnung gesendet hat. So können Unfälle vermieden werden.

Bereits in den 1930er Jahren gab es Überlegungen, über UKW (1 Watt Sendeleistung, Reichweite ca. 50 m) eine Kommunikation zwischen Kraftfahrzeugen aufzubauen. Man dachte z. B. daran, vor dem Überholen eines LKWs diesem ein Signal zu senden, das die Hupe des LKW betätigen sollte. Hierdurch sollte der LKW-Fahrer über die Über- holabsicht informiert werden. Der LKW-Fahrer sollte wiederum durch eine entspre- chende Antwort dem Hinterherfahrendem signalisieren, ob ein Überholen möglich ist.

Die betreffenden Fahrzeuge sollen Daten, wie Ansprechen des ABS, Lenkwinkel, Posi- tion, Richtung und Geschwindigkeit, sammeln, auswerten und über Funk (WLAN, DSRC, LTE, 5G ...) an die anderen Verkehrsteilnehmer weitergeben. Dabei soll die „Sichtweite“ des Fahrers mit elektronischen Mitteln verlängert werden. Das System könnte beispielsweise im Umkreis von 300 m Notbremsungen, Eis und Aquaplaning melden, beim Spurwechsel und Einfädeln helfen, vor Einsatzfahrzeugen mit Blaulicht warnen und Unfälle und Baustellen anzeigen.

Das Rhein-Main-Gebiet in Hessen wurde im Jahr 2007 zum Testgebiet für das Pilotpro- jekt„Sichere Intelligente Mobilität - Testfeld Deutschland SIM-TD“ bestimmt. Das Projekt wurde über den VDA durch die deutsche Automobilindustrie initiiert. Neben der Kommunikation von Autos untereinander soll auch der Datenaustausch mit der Verkehrsinfrastruktur wie z. B. Lichtzeichenanlagen und Verkehrsleitzentralen erprobt werden. Dies wird als Car-to-Infrastructure (C2I) bzw. im englischen Sprachraum als Vehicle-to-Roadside (V2R) bezeichnet. Langfristig gibt es das Ziel, europäische bzw. globale Standards für die Car-to-X-Technologie zu erarbeiten. Ein weiteres Forschungsprojekt im Bereich Car2Car ist die Forschungsinitiative Ko- FAS. Hier erforschen 17 Partner Technologien, Komponenten und Systeme, die den Verkehrsteilnehmern ein umfassendes Bild der Verkehrsumgebung bereitstellen. Auf deren Basis ist es möglich, kritische Verkehrssituationen frühzeitig zu erkennen, sodass mit vorbeugenden Maßnahmen Unfallsituationen vermieden oder Unfallfolgen wesent- lich vermindert werden können. Die genannten Technologien basieren auf dem Zu- sammenwirken von Sensoren der verschiedenen Verkehrspartner (kooperative Fahr- zeugsicherheit) und verwenden neueste Verfahren der Kommunikationstechnologie zum Austausch dieser Informationen.

Die Hauptherausforderung bei der Markteinführung dieser Techniken ist das hier auf Netzeffekten beruhende Henne-Ei-Problem: Eine potentielle Ausrüstung eines Fahr- zeuges mit einer (etwa WL AN -basierenden) Car2Car-Technik (u. a. für Antennen, WLAN-Modul, Steuergerät, Anzeigen für den Fahrer) ist durchaus nicht billig. Die er- sten Kunden dieser Technik werden aber keine beziehungsweise kaum andere Fahrzeu- ge antreffen, die im Ernstfall mit ihnen kommunizieren können, so dass sich diese Inve- stition für die ersten Kunden gegebenenfalls nie auszahlen wird. Studien im Bereich der Car2Car-Gremien und -Fahrzeughersteller (VDA-Kongress) haben ergeben, dass oft mindestens 10-15 Prozent aller Fahrzeuge im Verkehr mit der Car2Car-Technik ausge- rüstet sein müssen, damit das System überhaupt sinnvoll eingesetzt werden kann. Eine Alternative für die übliche Car2Car-Technik, die selber noch in der Entwicklung im Be- reich der Forschung ist, könnte das SOTIS-Verfahren sein. Letztlich stehen aber die Kosten des Systems in einem gegebenenfalls kritisch zu bewertendem Verhältnis zum potentiellen Nutzen, wenn nur die unfallpräventiven Anwendungen alleine betrachtet werden.

Auch die Maut-Industrie ist an der Car2Car-Kommunikation auf IEEE 802.11 -Basis in- teressiert. Man geht davon aus, dass es möglich sein wird, das System auch für die Übertragung von Mautdaten bzw. zur Fahrzeugerfassung an Mautstellen zu nutzen. Maut-Boxen werden überflüssig, wenn man die für Car2Car-Anwendungen nötige Inf- rastruktur (u. a. für Antennen, WLAN-Modul, Steuergerät, Anzeigen für den Fahrer) mitbenutzen kann. Zusammen mit der ggf. durch eCall eingeführten GSM-basierten Inf- rastruktur im Fahrzeug würden viele neue Anwendungen im Bereich der Mauterfassung und Abrechnung möglich.

Auch ist es denkbar, dass die Car2Car-spezifische WLAN-Sendeeinrichtung im Kfz nicht nur den 802.1 lp Standard, sondern auch 802.11 in den Varianten a, b und g unter- stützt. Damit könnten dann Mobilgeräte (Mobiltelefon, PDA, Notebook etc.) auf das In- fotainmentsystem eines Kfz zugreifen oder eingebunden werden, wie z. B. als UPnP Streaming-Server, was auch den Szenarien der DLNA entsprechen würde.

Die fehlende Unterscheidung zwischen netzgebundenem Kommunizieren (Fokus des Verkehrsministeriums und der Forschungsforderung der Europäischen Union, siehe dort) und unvernetztem Kommunizieren (robuster Ansatz DSRC) erschwert das Bewer- ten von Kosten, Nutzen und Risiken. Das Interesse von Netzbetreibern ist nicht iden- tisch mit dem Interesse der Fahrzeugführer. Jede Netzunterstützung ist zuerst eine Bela- stung der technischen Implementierung und bringt im lokalen Betrieb keinerlei Gewinn. Für einen robusten Betrieb ist eine autonome Lösung mit ausschließlichem Kommuni- zieren zwischen zwei oder mehr Fahrzeugen und einer soliden Ortsbestimmung durch GPS vorteilhaft. Das erfordert allerdings einen intelligenten Ansatz, um relevante und irrelevante Information hinreichend flink zu trennen und die unzureichende Präzision der Satellitenortung bei hoher Geschwindigkeit zu kompensieren. Außerdem gibt es da- zu keine vorrangige Teilhabe von Netzbetreibern.

Der wichtigste Kritikpunkt mit Blick auf unfallpräventive Car2Car-Applikationen ist, dass durch die neuen Techniken Irritationen entstehen können, denn wenn ein Fahrer keine Warnmeldung erhält, bedeutet das nicht, dass es auf der vor ihm liegenden Fahrt- strecke keine Gefahren gibt. Selbst wenn die Car2Car-Technik ab einem Stichtag auf gesetzlicher Basis verpflichtend eingeführt würde, würden auch nach über zehn Jahren weniger als 70 % aller Kfz in Deutschland über diese Technik verfügen. Auch wenn der unwahrscheinliche Fall eintreten würde, dass alle Kfz mit dieser Technik ausgestattet sind, auch Oldtimer, dann wären damit noch nicht alle Probleme gelöst, denn dann würden Radfahrer und Fußgänger ggf. zu den neuen Gefährdeten gehören. Dies, da Führer von Kfz fälschlicherweise davon ausgehen könnten, dass es auf Strecken, für die keine Warnung vorliegt, keine Gefahren gibt, während kreuzende Fußgänger oder ge- stürzte Radfahrer aber nicht mit in das System einbezogen wurden. Ähnliche Gründe werden auch gegen das Tagfahrlicht angeführt - die Wahrnehmung der Kfz untereinan- der wird vergrößert, aber unbeleuchtete Fußgänger und Radfahrer werden leichter über- sehen.

Um ein mutwilliges Verfälschen oder Manipulieren der ausgesendeten Warnmeldungen zu verhindern, müssten die gesendeten Meldungen eine elektronische Signatur haben und empfangene Meldungen müssten auf eine gültige Signatur geprüft werden. Dabei sollte aber die Anonymität der Kfz-Benutzer gewahrt bleiben. Wie der Missbrauch von Car2Car-Sendeeinheiten aus älteren Kfz verhindert werden soll, ohne dass jedes Kfz über ein eigenes Digitales Zertifikat verfügt, das im Zweifelsfall auch widerrufen wer- den kann, ist noch nicht geklärt. Eine Lösung ähnlich der Geldkarte wäre möglich, wür- de aber bedeuten, dass Behörden letztlich immer noch die Identität der sendenden Kfz feststellen können.

In den aktuellen Verfahren, die im Projekt Network On Wheels genutzt werden, sendet jedes Fahrzeug eine zyklische Botschaft im Abstand weniger Sekunden aus, die eine Fahrzeug-ID und Angaben zu Geschwindigkeit, Richtung und Position enthält. Auf Ba- sis dieser Informationen könnten Fahrprofile aber auch elektronische Strafzettel bei Ge- schwindigkeitsüberschreitungen oder Überqueren einer roten Ampel erstellt werden. Dergleichen wird möglich, wenn es in Ampelanlagen oder in (Polizei-) Fahrzeugen Empfangseinrichtungen gibt, die Car2Car-Daten auffangen können. Das Aussenden dieser zyklischen Botschaften, auch„Beacons“ genannt, wird deshalb kritisch betrach- tet. In diesem Zusammenhang ist auch eine fahrzeugbezogene Signatur der ausgesende- ten Botschaften kritisch zu bewerten. Um diesen Problemen zu begegnen, kommen bei vielen Forschungsmodellen Pseudonym- Wechsel- Verfahren zum Einsatz. Da ein Car2Car-fähiges Kfz öffentlich ausgesendete Nachrichtenpakete ggf. unbekann- ter Herkunft empfängt und verarbeitet, ist das Kfz oder ein designiertes Steuergerät auch gegen manipulierte Nachrichtenpakete und darauf basierende Angriffe verschie- dener Art zu schützen.

45. Cellular V2X

Cellular V2X (C-V2X) ist ein 3GPP-Standard, der für die V2X notwendige Techniken beschreibt. C-V2X ist eine Alternative zur V2V-Technik. Cellular V2X wurde im Rahmen des 3rd Generation Partnership Project (3GPP) entwickelt.

Formen

Fahrzeug-zu-Fahrzeug: in der Form einer unmittelbaren Kommunikation zwischen den Beteiligten ohne ein steuerndes Netzwerk.

Fahrzeug-Ad-hoc-Netz (V2V)

Fahrzeug-zu-Straße zur Infrastruktur (V2I)

Fahrzeug-zu-Fußgänger (V2P)

Fahrzeug-zu-Netzwerk: englisch Vehicle-to-Network (V2N) mit Kommunikation unter Nutzung herkömmlicher Funknetze, wodurch Onlinedienste Teil der Fahrzeug-zu- Fahrzeug-Kommunikation werden können.

Probleme: Alle Kommunikationssysteme die drahtlose Kommunikation nutzen, sind den inhärenten Nachteilen von Funkverbindungen unterworfen:

Begrenzte Ressourcen, Begrenzte Funkkanäle, Begrenzte Bitraten, Äußere Einflüsse, die schädlich oder feindlich sind, Begrenzung der Ausbreitung durch Gebäude oder Tunnel ,Verfälschung der Signale verursachen.

Die Lösung der Probleme bezüglich der Datenmenge wird vom Einsatz von Künstlicher Intelligenz (KI) erwartet.

46. Verkehrsvemetzung

Verkehrsvemetzung (englisch Vehicle-to-everything; V2X) ist die elektronische Kom- munikation der Teilnehmer an Verkehr untereinander in den Formen Fahrzeug-zu- Fahrzeug (V2V), Fahrzeug-zu-Straße (V2R), Fahrzeug-zu-Infrastruktur (V2I), Fahr- zeug-zu-Netzwerk (V2N) und Fahrzeug-zu-Personen (V2P).

Aufgaben von V2X sind Erhöhung der Verkehrssicherheit, Effizienz der Verkehre und Energieeinsparung. Ein solches Netz ist erforderlich für autonomes Fahren.

Als Übertragungsmittel stehen zur Verfügung:

WLAN und ein auf ein Mobilfunknetz gestütztes V2X-Netz, das die standardisierten WL AN -nutzenden Netze überlagert. Ein Protokoll für ein solches System wurde 2012 von der IEEE als IEEE 802.11p veröffentlicht. Es unterstützt V2V und V2I (zweckgebundene Nahbereichskommunikation (DSRC).

2016 veröffentlichte das Partnerschafitsprojekt für 3. Generation (Mobilfunkstandard) eine auf LTE basierende Spezifikation. Diese wird zur Unterscheidung von der auf 802.11p aufbauenden V2X-Technologie als Cellular V2X (C-V2X) bezeichnet. C-V2X unterstützt auch V2N und erlaubt auch die Weiterentwicklung zur Nutzung des Mobil- funkstandards 5G.

Bis Dezember 2017 hat jedoch nur ein europäischer Fahrzeughersteller angekündigt, V2X mit 802.1 lp ab 2019 zu verwenden.

Studien von 2017 und 2018 besagen, dass C-V2X hinsichtlich Leistungsfähigkeit, Reichweite und Zuverlässigkeit dem Standard 802.11p überlegen ist. Die Studien be- ziehen sich dabei auf Test in kleinerem Maßstab und Simulationen, wogegen 802.11p seine Funktion auch schon in Massentests in realen Umgebungen bewiesen hat.

Zweckgebundene Nahbereichskommunikation (DSRC)

Die ursprüngliche Form des V2K nutzt WLAN -Technologie zwischen den Fahrzeugen, die dem Fahrzeug- Ad -hoc-Netz der in der Reichweite des WLANs der anderen sich be- findenden Teilnehmer angehören. Da keine Infrastruktur erforderlich ist, ist diese Tech- nik geeignet, zur Verkehrssicherheit in strukturschwachen Gebieten beizutragen. WLAN eignet sich für diese Anwendung auf Grund seiner kurzen Verzögerungszeiten wegen der kurzen Steuersequenzen und der daher geringen Datenmenge. Die Funktech- nik ist für die USA in den„IEEE 802.11“-Regeln definiert. In Europa als ITS-G5.

3GPP (C-V2X)

Neuere V2X-Lösungen nutzen Mobilfunknetze, die als Cellular V2X (oder C-V2X) be- zeichnet werden, um sie von Netzen zu unterscheiden, die WLAN nutzen. Zahlreiche Organisationen der Industrie, wie die 5G Automotive Association (5GAA), werben für die Nutzung von C-V2X, weil es gegenüber dem WLAN -basierten Standard Vorteile aufweist[6]. Nachteile werden jedoch nicht erläutert.

C-V2X wurde ursprünglich als LTE der Version 14 der 3GPP definiert für die Anwen- dungen V2V, V2I und V2N. Mit der Version 16 wurde die Funktionalität auf die Unter- stützung des 5G-Standards erweitert. Eine Eigenschaft von C-V2X ist, dass es, verbun- den mit höheren Kosten, auf- und abwärts kompatibel gestaltet ist.

Die Kommunikation zwischen Fahrzeug und Fahrzeug (V2V) und zwischen Fahrzeug und Infrastruktur nutzt die sogenannte PC5 -Schnittstelle.

Neben der Kommunikation über die PC5 -Schnittstelle ermöglicht C-V2X die reguläre Kommunikation über die Uu-Schnittstelle zur Basisstation des Funknetzes. Die direkte V2V-Kommunikation ermöglicht zahlreiche Sicherheitssysteme, wie: Auffahrschutz, Spurhalteassistent/Überwachung des toten Winkels, Auffahrwarnung (mit Bremsleuch- ten), Kreuzungsassistent, Einsatzfahrzeugmelder, Baustellenwarner, Kolonnenbildung, Vorfahrt für Fahrzeuge mit Sonderrechten, Spurverengung, Bremswarnung und/oder Mautstationsmeldung.

In einem Bericht der National Highway Traffic Safety Administration (NHTSA) wer- den die Anwendungen aufgelistet, die im Rahmen der US -europäischen Standardisie- rung (ETSI) geplant sind. Frühere Anwendungsbeispiele legten den Schwerpunkt auf Effizienz und Verkehrssicherheit. Auf mittlere Sicht ist V2X der Schlüssel zu autonomem Fahren, vorausgesetzt, es wird dem Fahrzeugrechner Eingriff auf die Fahrzeugsteuerung gestattet.

Das WLAN-basierte V2X baut auf einer Serie von Standards auf, die die ASTM Inter- national entworfen hat. Die Reihe der„ASTM E 2213“-Normen befasst sich mit der Funkkommunikation von Fahrzeug-zu-Fahrzeug und von Fahrzeug-zu-Infrastruktur mit hohen Datenraten. Mit der Veröffentlichung 2002 wurde für V2X erstmals der Begriff WAVE gebraucht.

Ab 2004 hat das Institute Electrical and Electronics Engineers (IEEE) damit begonnen, den drahtlosen Zugang zu Fahrzeugen in ihre Normen für WLAN einzubeziehen. 2012 wurde die Norm IEEE 802.1 lp in die Norm IEEE 802.11 einbezogen.

Um 2007, nachdem sich IEEE 802.1 lp stabilisiert hatte, begann das IEEE, die Normen- reihe 1609x zu entwickeln, mit der die Anwendungen und sicherheitsbezogene Regeln genormt wurden. Hierbei benutzte die IEEE den Begriff WAVE.

Kurz danach begann die SAE International, Normen für V2V zu spezifizieren, das als DSRC bezeichnet wurde. Gleichzeitig gründete das ETSI den Ausschuss für Verkehr- stelematik. Das ETSI wählte dafür den Begriff ITS-G5. Alle diese Normen haben IEEE 802.1 lp als Grundlage.

Zwischen 2012 und 2013 hat die japanische Rundfunk-Standardisierungsorganisation auf der Grundlage von IEEE 802.11 ein V2V und V2I eine Norm für den 700-MHz- Frequenzbereich festgelegt 2015 veröffentlichte die ITU eine Zusammenfassung aller V2V- und V2I-Normen weltweit, einschließlich ETSI, IEEE, ARIB und TTA.

3GPP

Die Normung von Cellular V2X (C-V2X) wurde 2014 mit der Version 14 der IEEE 802.1 lp begonnen, aufbauend auf der Nutzung mit LTE und wurde 2016 veröffentlicht. Da es die Nutzung von LTE voraussetzt, wird es auch als LTE-V2X bezeichnet und be- schreibt sowohl V2V und V2I als auch V2N.

Mit der Ausgabe 15 wurde die Migration zu 5G ermöglicht. Diese Version ist zur Ver- öffentlichung im Jahr 2018 vorgesehen.

Mit Ausgabe 16 wird der Funktionsumfang von C-V2X erweitert und die Migration zu 5G einbezogen.

Vergleichende Studien und Analysen zur Wirksamkeit von LTE-V2X PC5 und 802.11.hinsichtlich Unfallvermeidung und Verringerung schwerer und tödlicher Unfälle zeigten, dass LTE-V2X bessere Ergebnisse erzielt. Sie zeigten auch, dass LTE-V2X bessere Zustellraten und eine höhere Reichweite aufweist.

Cellular V2X-Lösungen bieten auch die Möglichkeit, weitere Nutzergruppen, insbeson- dere Fußgänger und Radfahrer, durch die Nutzung der PC5 -Schnittstelle in Smartpho- nes in C-ITS-Systeme einzubeziehen.

Durch die Beschreibung der direkten Kommunikation und der über Funknetze in einer Norm, ist es möglich, dafür in einem einzigen Chipsatz zu verwirklichen. Die Verfüg- barkeit solcher Chipsätze fordert darüber hinaus wesentlich die Wirtschaftlichkeit der Nutzung dieser Vernetzungsformen.

Die Nutzung von Frequenzen für V2X unterliegt Regelungen durch die entsprechenden Behörden. 1999 wies die Federal Communications Commission im Bereich von 5.850- 5.925 GHz ein 75-MHz-Band für intelligente Transportsysteme aus. Seit dieser Zeit ar- beitet das Verkehrsministerium der Vereinigten Staaten (USDOT) mit Betroffenen an V2X. 2012 wurde in Ann Arbor mit 2.800 Fahrzeugen (Motorräder, PKWs, Omnibusse und LKW) verschiedener Hersteller mit Ausrüstungen verschiedener Hersteller ein Feldversuch durchgeführt.

Diesen Versuch wertete die National Highway Traffic Safety Administration (NHTSA) als Bestätigung, dass damit die Verkehrssicherheit verbessert werden kann und dass die WAVE-Normen interoperabel sind und veröffentlichte im August 2014 einen Bericht, der der V2V-Technologie die Einführungsreife bescheinigte.

Am 20. August 2014 veröffentlichte die NHTSA im Amtsblatt die Ankündigung der beabsichtigten Regulierung unter dem Hinweis, dass der Nutzen von Verkehrsvernet- zung nur erreicht werde, wenn der überwiegende Teil der Verkehrsteilnehmer damit ausgerüstet wird. Wegen des, für frühe Nutzer geringen Vorteils, empfahl die NHTSA die Pflicht zur Einführung.

Am 25. Juni 2015 führte das Repräsentantenhaus der Vereinigten Staaten eine Anhö- rung durch, bei der die NHTSA und andere Betroffene sich für V2X aussprachen.

Für die Europa-weite Verwendung von V2X war eine Harmonisierung der Frequenzen erforderlich, die durch ITS-G5 ETSI EN 302 571 für Zweckgebundene Nahbereichs- kommunikation im 5.855-5.925-MHz-Frequenzbereich zugewiesen wurden. Das ent- sprechende ETSI-Dokument ist ETSI TR 101 788.

Der Beschluss 2008/671 /EG der Europäischen Kommission legte das Frequenzband 5.875-5.905 MHz für Sicherheitsanwendungen im Transportwesen (ITS) fest.

2010 wurde die ITS-Richtlinie 2010/40/EU übernommen, um zu gewährleisten, dass ITS-Anwendungen grenzüberschreitend funktionieren. Dazu wurden Bereiche für Fol- gegesetzgebung bezüglich V2X bestimmt und für die verwendeten Technologien Taug- lichkeitskriterien bestimmt.

2014 begann die C-ITS Deployment Platform der industriellen Beteiligten bei der Eu- ropäischen Kommission mit der Arbeit an Rahmenbestimmungen für V2X in der EU. In diesen wurden Schlüsselelemente für eine europaweite Sicherheitslösung für V2X (PKI) und für den Datenschutz ebenso wie Vorbereitungen für eine Norm -Migration festgelegt, um gegenseitigen Funk-Störungen zwischen mit ITS-G5 arbeitenden V2X und Mautsy stemen vorzubeugen. Die Europäische Kommission erkannte in ihrem Aktionsplan für 5G die ITS-G5- Technologie als Grundlage, ebenso wie das erklärende Begleitokument an, um so ein Umfeld zu formen, das aus ITS-G5 und dem von den EU -Mitgliedsstaaten angestrebten Funknetz besteht.

Pilot-Proekte auf EU- oder Einzelstaatenebene sind SCOOP@F, Testfeld Telematik, die Testbett Autobahn, der „Rotterdam - Wien“-ITS-Korridor, Nordic Way, COMPASS4D oder C-ROADS.

Die Einführung der V2X-Technologie (entweder auf C-V2X oder 802.11p aufbauende Produkte) wird allmählich erfolgen. Als Haupthindernis gelten rechtliche und gesetzli- che Fragen. Auch ist es notwendig, dass die meisten Fahrzeuge mit dieser Technik aus- gestattet sind, um die Technik wirksam werden zu lassen. Der„The Economist“ sieht, dass das Fahren mit V2X-Technologie mehr durch die Gesetzgebung als durch die Technologie bestimmt wird. Eine Studie lässt erwarten, dass selbst in der Übergangszeit ein Nutzen hinsichtlich der Verkehrssicherheit zu erwarten ist.

47. Selbstfahrendes Kraftfahrzeug

Als selbstfahrendes Kraftfahrzeug (manchmal auch autonomes Landfahrzeug) bezeich- net man ein Auto oder anderes Kraftfahrzeug, das ohne Einfluss eines menschlichen Fahrers fahren, steuern und einparken kann (Hochautomatisiertes Fahren bzw. Auto- nomes Fahren). Im Falle, dass keinerlei manuelles Steuern seitens des Fahrers nötig ist, wird auch der Begriff Roboterauto verwendet. Dann kann der Fahrersitz leer bleiben; eventuell sind Lenkrad, Brems- und Gaspedal nicht vorhanden. Autonome Landfahr- zeuge gibt es derzeit nur als Prototypen, es arbeiten mehrere Unternehmen der IT-, viele der Automobilindustrie und andere Gruppen daran, diese als Serienproduktion für den Markt zu ermöglichen. Als am fortgeschrittensten werden Waymo und GM angesehen.

Unter den Begriff„selbstfahrendes Kraftfahrzeug“ fallen des Weiteren auch Lastkraft- wagen, landwirtschaftliche Zugmaschinen und Militärfahrzeuge ohne Einfluss des Fah- rers oder ganz ohne Fahrer. Nicht als„autonomes Landfahrzeug“ bezeichnet wird ein unbemanntes Fahrzeug dann, wenn es von Menschen ferngesteuert werden muss, also nicht autonom fahren kann. Der Begriff „selbstfahrendes Auto(mobil)“ ist genauge- nommen eine Tautologie, denn bereits der Begriff„Automobil“ entstand aus griechisch aύtόV autos , selbst 1 und lateinisch mobilis , beweglich 1 .

Autonome Kraftfahrzeuge können mit Hilfe verschiedener Sensoren ihre Umgebung wahmehmen und aus den gewonnenen Informationen ihre eigene Position und die der anderen Verkehrsteilnehmer bestimmen, in Zusammenarbeit mit der Navigationssoft- ware das Fahrziel ansteuem und Kollisionen auf dem Weg vermeiden. Derzeit investie- ren viele große Autohersteller weltweit in die Entwicklung autonomer Autos, zugleich treiben Elektronik- und Halbleiterindustrie die Entwicklung von Technologien dafür voran.

Über verschiedene Automatisierungsstufen wurde im Jahr 2013 prognostiziert, dass ab 2030 eine Vollautomatisierung von Neuwagen zu erreichen wäre, für die bis dahin in den einzelnen Ländern auch gesetzliche Regelungen geschaffen werden sollen. Als Start für den Massenmarkt hatte Google-Mitgründer Sergey Brin im Jahr 2014 jedoch bereits 2017 als Ziel für die USA angegeben. Elon Musk von Tesla Motors prognosti- zierte 2015 ein voll autonomes Fahrzeug für das Jahr 2018/19. 2016 kündigten BMW und Ford jeweils für das Jahr 2021 autonome Fahrzeuge aus ihrer Produktion an. VW und Ford haben eine neue Allianz gebildet.

Bereits in den 1990er Jahren ließ die Münchener Universität der Bundeswehr innerhalb ihres in den 1980er Jahren gestarteten EUREKA-PROMETHEUS -Projekts Fahrzeuge führerlos über die Autobahn fahren. Diese fuhren allein anhand visueller Informationen, geliefert von diversen Kameras, die von 70 parallel arbeitenden Mikroprozessoren ver- arbeitet wurden.

Auch die US-amerikanische Carnegie Mellon University baute schon in den 1980er Jahren führerlose Autos und andere Gefährte, ab Mitte der 1980er Jahre im von der DARPA geforderten Autonomous Land Vehicle project. Seit längerem gibt es zahlreiche Forschungsarbeiten an Hochschulen und anderen aka- demischen Einrichtungen zu autonomen Fahrzeugen, so zum Beispiel 2011 die Projekte „Stadtpilot“ an der TU Braunschweig und„Spirit of Berlin“ am Forschungsbereich „Künstliche Intelligenz“ der Freien Universität Berlin.

Im September 2011 wurde das autonome Fahrzeug„MadelnGermany“ von der FU Ber- lin getestet. Es steuerte sich selbst mehrere Kilometer durch den Innenstadtverkehr von Berlin, auch über Kreisverkehre und Ampeln. In Zusammenarbeit mit dem TÜV Nord wurde die Strecke erarbeitet und ein Sicherheitskonzept erstellt. Intensive und übergrei- fende Forschung wird seit einigen Jahren betrieben um die Herausforderung besser zu verstehen und voran zu bringen.

In Österreich forscht zumindest seit 201 1 das Amt für Rüstung und Wehrtechnik (ARWT) des Bundesheeres, in Kooperation mit der Technischen Universität Wien, dem Technikum Wien, dem Austrian Institute of Technology sowie mit privaten Kooperati- onspartnern, an der Entwicklung eines selbstfahrenden, autonomen Lastwagens. Minde- stens seit Jahresbeginn 2014 hat das ARWT unter der Bezeichnung X58 SafeCon (Pro- jektname: Save Convoying) einen voll funktionsfähigen Prototyp eines selbstfahrenden Lastkraftwagens in seiner Versuchswerkstätte der Abteilung Fahrzeug- und Gerätetech- nik in der Burstyn-Kaseme im niederösterreichischen Zwölfaxing in Betrieb.

Das Fahrzeug fährt autonom ohne Einsatz von Funk oder GPS. Es orientiert sich mithil- fe mehrerer Stereokameras, darunter auch Wärmebildkameras für den Nachtbetrieb. Mit diesen erfasst das Fahrzeug seine Umgebung und erstellt ein 3D-Modell. So seien (Stand 2014) in die Entwicklung dieses Prototyps dreijährige Forschungleistung sowie etliche Millionen Euro investiert worden. Als Einsatzzwecke werden beispielhaft der unbemannte Einsatz in verminten Gebieten sowie Landschaftspflege in Zielgebieten der Artillerie wie dem Truppenübungsplatz Allentsteig genannt. Es hätten ausländische Armeen ihr Interesse an der Technologie bekundet und„die Automobilindustrie sowie- so.“ Die Firma Google setzt seit Jahren auf die Zusammenarbeit mit Autoherstellern und Universitäten und engagierte 2003 den deutschen Informatiker Sebastian Thrun, der zu dieser Zeit gerade eine Professur an der Stanford-Universität angetreten hatte. Seit Ende 2017 testet die zur Fortsetzung der Entwicklungsarbeit gegründete Firma Waymo die ersten vollkommen autonom fahrenden Autos ohne Sicherheitsfahrer am Steuer in der Nähe von Phoenix in Arizona. Ein Mitarbeiter von Waymo kann jedoch in der An- fangsphase noch vom Rücksitz aus das Auto stoppen. Dieser soll später entfallen. Das Unternehmen selbst stuft das System als„Level 4“ auf der Stufe des autonomen Fahres ein. Seit April 2014 befindet sich das Projekt Volvo„Drive Me“ in Göteborg in der Entwicklungsphase.

Im Sommer 2013 fuhr eine Mercedes S-Klasse im Beisein von Journalisten die histori- sche Bertha-Benz-Strecke von Mannheim nach Pforzheim autonom mit Ausnahme zweier menschlicher Eingriffe. 2014 fuhr ein von Audi hergestellter Wagen autonom rund 900 Kilometer aus dem Silicon Valley nach Las Vegas.

Auch von Daimler, Honda und Nissan gibt es Serien-Autos, die auf Autobahnen selbst fahren können. Die als Stauassistent bezeichnete Technik erlaubt jedoch nur eine Ge- schwindigkeit bis zu 60 km/h. Der Stauassistent aktiviert sich automatisch, wenn der Fahrer das Lenkrad für mehr als 10 Sekunden nicht berührt, kann aber in der Regel nicht selbstständig die Spur wechseln.

Seit einem Software-Update im Oktober 2015 ist das Tesla Model S in der Lage, auf Autobahnen autonom zu fahren und hierbei auch die Spur zu wechseln. Der Fahrer muss weder Lenkrad noch Gaspedal oder Bremse betätigen.

Seit Mai 2015 testet Daimler selbstfahrende LKW auf den öffentlichen Straßen von Nevada, USA. In den USA sind selbstfahrende Fahrzeuge (wie etwa der Inspiration Truck) unter bestimmten Bedingungen bereits zugelassen, in Deutschland hingegen nicht. Seit Oktober 2015 testet Nissan ein selbstfahrendes Auto, das auf einem Nissan Leaf basiert und in Kooperation mit der NASA entwickelt wurde. Nun sollen auf der Straße diverse Funktionen getestet werden. Zunächst allerdings nur auf Autobahnen und erst ab 2018 mit der Fähigkeit zum Spurwechsel. Tests auf Stadtstraßen sind für 2020 ge- plant. Das Auto besitzt einen Laserscanner mit 3D-Messung sowie eine 8-fach Kamera mit 360-Grad Sicht. Damit soll die Sicherheit verbessert werden.

2016 verkündete BMW eine Allianz mit Intel und Mobileye, mit dem Ziel, im Jahr 2021 ein fahrerloses Auto in Serie einzuführen. Im schweizerischen Sitten besteht seit Juni 2016 ein experimenteller Regelbetrieb mit dem autonomen Shuttlebus Arma des französischen Unternehmens Navya; seit September 2016 zudem auch im französischen Lyon.

Seit Oktober 2016 werden alle Tesla-Fahrzeuge mit einer Hardware ausgeliefert, die es erlaubt, die Fahrzeuge zukünftig vollautonom, d. h. nach dem SAE Level 5 zu fahren. Vorerst wird das System in einem sog. Schatten-Modus mitlaufen, d. h. ohne in den Fährbetrieb einzugreifen, und die gesammelten Daten an Tesla zurücksenden, um die Fähigkeiten des Systems schrittweise zu verbessern, bis das System zur Freigabe mit- tels eines over-the-air Upgrades bereit ist. Tesla kündigte an, dass der vollautonome Zu- stand Ende 2017 erreicht sein würde. Dann wäre eine Demonstrationsfahrt von San Francisco nach New York geplant, bei der ein Tesla-Fahrzeug die Strecke unbemannt zurücklegen solle.

Im Oktober 2018 haben Toyota und Softbank die Gründung von Monet Technologies als Joint Venture bekanntgegeben. Easymile ist ein weiterer Hersteller aus Frankreich. Zahlreiche Automobilzulieferer entwickeln Komponenten und (Teil-)Systeme für das selbstfahrende Fahrzeug. Dies geschieht teilweise in Zusammenarbeit mit Automobil- herstellem und Forschungseinrichtungen sowie im Rahmen eigener Projekte. Der Zulie- ferer Continental etwa arbeitet mit mehreren Partnern an einem Pilotprojekt zum auto- nomen Fahren. Bosch arbeitet bereits seit 2014 an selbstfahrenden Fahrzeugen. Im Dezember 2016 kündigte der Automobilzulieferer Delphi zusammen mit Mobileye durchgeführte Testfahrten eines selbstfahrenden Demonstrationsfahrzeugs an. Auf einer rund 10 Kilometer langen Teststrecke im öffentlichen Verkehr von Las Vegas soll das Demonstrationsfahrzeug alltägliche Verkehrssituationen und dichten innerstädtischen Verkehr mit Fußgänger- und Radfahrerverkehr bewältigen.

Die OpenADx Working Group ist eine im Juni dieses Jahres initiierte Kooperation der Automobilindustrie, die sich um Dinge wie eine bessere Kompatibilität, Schnittstellen und breitere Interoperabilität bei der Entwicklung von Software kümmern soll, die das autonome Fahren unterstützt.

Automotive Grade Linux ist ein kollaboratives Open-Source-Projekt, das Autoherstel- ler, Zulieferer und Technologieunternehmen zusammenbringt, um die Entwicklung und Einführung eines vollständig offenen Software-Stacks für das vernetzte Auto zu be- schleunigen. Mit Linux als Kern entwickelt AGL von Grund auf eine offene Plattform, die als De-facto-Industriestandard dienen kann, um die schnelle Entwicklung neuer Funktionen und Technologien zu ermöglichen.

BSI öffentlich verfügbare Spezifikationen (PAS): PAS 1880 und PAS 1881 in Bezug auf die Sicherheit der automatisierten Fahrzeugentwicklung und -prüfung. Diese sollen Anfang 2020 veröffentlicht werden. Entwurf der UL 4600-Norm, die einen Sicherheits- ansatz zur Gewährleistung einer autonomen Produktsicherheit im Allgemeinen und selbstfahrende Autos im Besonderen beschreibt. C2X-Kommunkation nach dem euro- päischen ITS-G5 Standard, speziell 5G Automotive Association. Die RAND Corporati- on hat ein Konzept (Framework) für die Messung und Entwicklung von Sicherheit für autonome Fahrzeuge erstellt.

Safety First for Automated Driving (SaFAD) - 1 1 Unternehmen aus dem gesamten Spektrum der Automobil- und automatisierten Antriebstechnik haben eine branchen- weite Definition von Sicherheit für SAE J3016 Level 3/4 autonome Fahrzeuge entwik- kelt und publiziert. Die Association for Standardization of Automation and Measuring Systems (ASAM) ist ein Verein für Standardisierung und berücksichtigt nebst Software u. a. auch die Entwicklungen von Standards für autonome Fahrzeuge.

Laut einer Studie der RAND Corporation übertreffen die Vorteile, die autonome Fahr- zeuge mit sich bringen, die möglichen Nachteile bei weitem. Durch die Technik würde der Straßenverkehr sicherer, da sich 90 Prozent aller Unfälle auf menschliches Versa- gen zurückfuhren ließen Dies würde alleine für die USA eine volkswirtschaftliche Er- sparnis von über 400 Milliarden US-Dollar bedeuten, so die RAND Corporation. Peter Fuß von der Untemehmensberatung Emst & Young glaubt, dass sich die Anzahl der Verkehrstoten auf null reduzieren lassen könnte.

Daniel Göhring von der FU Berlin schätzt, dass mit Robotertaxis in der Stadt nur noch 20 Prozent der heutigen Autos benötigt würden. Zudem würden sich die Abstände zwi- schen den Fahrzeugen verkürzen. Dies würde zu einer deutlichen Reduktion von Emis- sionen und Staus führen. Laut einer Studie des Lawrence Berkeley National Laboratory würde ein autonomes und elektrisches Robotertaxi im Jahr 2030 etwa 90 Prozent weni- ger Kohlendioxid verursachen als ein heutiges Auto mit Verbrennungsmotor.

Bei autonomen Fahrzeugen können sich die Fahrer mit anderen Dingen beschäftigen, z. B. Lesen. Zudem könnte die Technik auch älteren Menschen die soziale Teilnahme an der Gesellschaft durch günstige Mobilität ermöglichen.

Als mögliche Nachteile werden häufig Unklarheiten bezüglich des Datenschutzes und die Gefahr durch Cyberkriminelle genannt. Unfälle durch Softwarefehler sind nicht ausgeschlossen. Die Deutsche Gesellschaft für Verkehrspsychologie (DGVP) zweifelt in ihrer Stellungnahme zum automatisierten Fahren, ob„die Zuverlässigkeit eines Men- schen, durch die einer Maschine ersetzt werden kann“. Nach der Statistik ereignet sich nach etwa 10 Milliarden Beobachtungen und einer Milliarde menschlicher Entschei- dungen ein tödlicher Unfall. Die Haftungsfrage ist in solchen und anderen Fällen noch ungeklärt. Gleichwohl hat die Allianz-Versicherung 2015 angekündigt, demnächst Tari- fe zur Versicherung von autonomen Fahrzeugen anzubieten. Anfang 2015 hate Bundesverkehrsminister Alexander Dobrindt die Einrichtung eines Pilotprojekts„Digitales Testfeld Autobahn“ auf der Autobahn A9 in Bayern angekün- digt. Die Teststrecke wurde so digitalisiert und technisch ausgerüstet, dass es dort zu- sätzliche Angebote der Kommunikation zwischen Straße und Fahrzeug wie auch von Fahrzeug zu Fahrzeug gab. Dort konnten dann sowohl Autos mit Assistenzsystemen als auch später vollautomatisierte Fahrzeuge fahren. Verkehrsminister Dobrindt (CSU) sieht die dort im Test gemachten Erfahrungen positiv und will rund 80 Millionen Euro für den Ausbau von neuen Teststrecken in Deutschland bereitstellen. Die Kosten für das Herrichten des weiteren deutschen Straßennetzes für automatisiertes und vernetztes Fahren bleiben weiterhin unbekannt. Auch deren Größenordnung wurde bisher nicht benannt.

Da es auch bei autonomen/selbstfahrenden Autos Situationen geben kann, in denen Un- fälle mit Personenschäden unvermeidbar sind, muss im Vorfeld entschieden werden, welchen Maximen ihr Verhalten in solchen Situationen folgen soll. Ein menschlicher Fahrer würde in einer plötzlichen Situation, wenn beispielsweise ein Kind auf die Stra- ße läuft, instinktiv reagieren, ohne sich überhaupt aller relevanten Faktoren (etwa der Personen auf dem Bürgersteig) bewusst zu sein. Überlegungen, welches Handeln mora- lisch zu rechtfertigen ist, wird er nicht in der Lage sein zu tätigen. Allerdings trifft das bei autonomen/selbstfahrenden Autos nicht zu. Die Entscheidung, wie sich das Fahr- zeug in welcher Situation zu verhalten hat, wird lange vor einem eventuellen Unfall ge- troffen. Diese Tatsache hat erhebliche Konsequenzen für die Bewertung eines Unfalles durch ein autonomes Auto.

So stellen sich beispielsweise folgende Fragen:

Kann eine Maschine die Situation überhaupt richtig bewerten, beispielsweise zwischen einem Puppenwagen und einem echten Kinderwagen unterscheiden? Würde ein Auf- rechnen von Menschenleben (utilitaristisch) eine unzumutbare Instrumentalisierung der „Geopferten“ darstellen? Wenn ein Aufrechnen sinnvoll wäre, wie ist dies zu organisie- ren, also welche Kriterien spielen eine Rolle (z. B. die Anzahl von Menschen oder das Alter)? Insbesondere die letztgenannte Frage ist Gegenstand aktueller Forschung.Je stärker der Praxisbezug einer eventuellen Programmierung (in moralischen Fragen) ei- ner Maschine wird, desto mehr häufen sich Probleme.

2016 starben in Deutschland 3.214 Menschen durch Verkehrsunfalle. Es ist damit zu rechnen, dass bei hohem Anteil autonomer Fahrzeuge das Autofahren sicherer werden würde. Wenn der gesellschaftliche Diskurs über selbstfahrende Autos allerdings zu dem Schluss kommen sollte, dass keine vorprogrammierte Reaktion auf Situationen, in de- nen Unfälle unausweichlich geworden sind, zu rechtfertigen ist, so wäre die Frage un- ausweichlich, inwiefern die gegenwärtige Praxis eher legitimierbar ist.

Oft wird prognostiziert, dass nach einer Markteinführung von selbstfahrenden Autos ein Teil der Autobesitzer ihr Auto aufgeben würden, um auf für sie persönlich preisgünsti- gere selbstfahrende Taxis umzusteigen. Dies soll zu insgesamt weniger Autos führen, die aber jeweils mehr auf der Straße wären als bisher. Aktuell befinden sich Autos den größten Teil der Zeit im parkenden Zustand, und verbrauchen Parkfläche. Durch frei- gewordene Parkfläche wäre mehr Platz für Wohnungen, Parks und Fahrbahnen. Aktuel- le Simulationen und Flochrechnungen untersuchen die Möglichkeiten von selbstfahren- den Taxis oder Carsharing-Fahrzeugen.

Ein Wagen von Uber hat am 19. März 2018 in Tempe, Arizona, Vereinigte Staaten eine Fußgängerin tödlich verletzt. Die 49-jährige Elaine Herzberg schob ihr Fahrrad über die Straße, als sie von dem Volvo-SUV erfasst wurde. Uber stellte die Tests bis auf weite- res ein. Laut ersten Ermittlungen der Polizei treffe Uber dabei keine Schuld; auch bei einem menschlichen Fahrer wäre der Unfall schwer zu verhindern gewesen. Später be- richtete Reuters unter Berufung auf einen Polizeibericht, die Fahrerin sei möglicherwei- se durch eine Fernsehsendung abgelenkt gewesen. Es war der erste tödliche Unfall mit einem Auto der Autonomiestufe 4, bei der der Fahrer nur noch im Notfall und nach Warnung des Autos eingreifen muss. Der Gouverneur von Arizona hat die Genehmi- gung für Uber-Testfahrten auf öffentlichen Straßen ausgesetzt. Das von der Polizei ver- öffentlichte Video von dem Unfall sei alarmierend und werfe viele Fragen auf, schrieb Gouverneur Doug Ducey in einem offenen Brief an Uber-Chef Dara Khosrowshahi. Die Staatsanwaltschaft untersucht den Vorfall.

Um die Entwicklung derartiger Fahrzeuge voranzutreiben, gibt bzw. gab es einige Leistungsvergleiche, so z. B. den European Land Robot Trial (seit 2006) und den DARPA Grand Challenge (von 2004 bis 2007). Im Rahmenprogramm der Formel-E- Saison

48. Autonomes Fahren

Unter autonomem Fahren (manchmal auch automatisches Fahren, automatisiertes Fah- ren oder pilotiertes Fahren genannt) ist die Fortbewegung von Fahrzeugen, mobilen Robotern und fahrerlosen Transportsystemen zu verstehen, die sich weitgehend auto- nom verhalten. Vom Ursprung des Wortes her ist das Kraftfahrzeug schon immer auto- nom: Der Begriff„Automobil“ besagt, dass sich ein Gefährt, ohne geschoben oder von Tieren gezogen zu werden, wie von alleine fortbewegt. Seit in Fahrzeugen Mikropro- zessorsysteme, Sensoren und Aktoren Zusammenwirken, erfährt der Autonomiebegriff eine Präzisierung: Das Fahrzeug macht nicht den Fahrer autonom, sondern es fahrt selbstständig.

Autonomes Fahren wird gängigerweise mit Fahrzeugen assoziiert, die sich ähnlich wie Flugzeuge im Autopilotmodus verhalten, also Lenk-, Blink-, Beschleunigungs- und Bremsmanöver längs- und quer der Fahrspur ohne menschliches Eingreifen durchfuh- ren. Bereits in der zweiten Hälfte der fünfziger Jahre des vorigen Jahrhunderts postu- lierte A. A. Kucher, seinerzeit leitender Ingenieur der amerikanischen Ford-Werke, als Mittel gegen die schwindenden Rohölreserven, zur Entlastung der Verkehrsadern und vor allem zur Senkung der steigenden Unfallzahlen die Forderung nach der Entwick- lung einer Art elektronischer Autobahn für elektrisch betriebene Autos:„In den , Auto- mobilen 1 von morgen wird es keine Abhängigkeit mehr von der menschlichen Reakti- onsfähigkeit geben.

Die Führung der Fahrzeuge wird über eine narrensichere elektronische Steuerung erfol- gen.“ Pionier auf diesem Gebiet wurde dann Emst Dickmanns, der in den frühen 1980er Jahren mit Experimenten auf noch nicht für den Verkehr freigegebenen Autobahnab- schnitten begann. Sein„Versuchsfahrzeug für autonome Mobilität und Rechnersehen“ VaMoRs (englisch VaMP) durchfuhr ab 1986 längere, verkehrsreiche Strecken teilwei- se autonom, jedoch noch mit starken Eingriffen durch den Fahrzeugführer. Die ersten seriennahen autonomen Fahrzeuge stellte Audi im Januar 2015 auf der CES in Las Ve- gas unter dem Begriff„pilotiertes Fahren“ vor. Sie fuhren mehrere hundert Kilometer Autobahn durch die Wüste von Nevada - ohne jeglichen Eingriff durch die Person am Steuer.

Die erste, seit ca. 2010 erprobte und 2015 kurz vor der Serieneinführung stehende An- wendung des fahrerlos autonomen Fahrens ist das vollständig autonome Einparken. Dieser Vorgang wird in Anlehnung an das Valet-Parken auch Autonomes Valet-Parken genannt. Der Fahrer sitzt dabei nicht mehr selbst im Fahrzeug, sondern aktiviert die Einparkautomatik von außen. Das fahrerlose Fahren bekam 2004 starken Auftrieb durch den DARPA-Wettbewerb in den USA, wo auch deutsche Automobilhersteller Preise gewannen.

Das Beispiel eines anderen Fahrzeugtyps, der sich ohne Insassen, insbesondere ohne Fahrer fortbewegte, war der (nie auf dem Mars gelandete) sowjetische Marsroboter Prop-M von 1971. Mit dem„mobilen Roboter“, von dem hier die Rede ist, ist eine be- wegliche Maschine gemeint, deren Aufgabe darin besteht, dem Menschen mechanische Arbeit abzunehmen, und die in ihrer Umgebung selbstständig agieren und sich bewegen kann. Mobile Roboter werden oft bereits dann als autonom bezeichnet, wenn die sie steuernde Software/Elektronik/FIardware sich„on board“ befindet. Der Roboter ist dann solange autonom, wie seine Energieversorgung dies zulässt. Dem Roboter Anweisun- gen zu übermitteln, wie oder welche Aufgabe er zu diesem oder jenem Zeitpunkt zu er- ledigen hat, beeinträchtigt nicht seine Autonomie. Ein Roboter gilt erst dann als voll- ständig autonom, wenn er in Bezug auf seine Energieversorgung autark ist.

Fahrzeuge, die für den Transport gedacht sind und ohne Fahrer auskommen, sind in der Industrie weit verbreitet. Mithilfe von Sensorik und Software zur Lokalisation, Naviga- tion und Pfadplanung suchen sich diese mobilen Transportroboter auf einem fest defi- nierten Gebiet ihre Wege selbständig.

Einige Universitäten richten Wettbewerbe mit kleinen Modellfahrzeugen aus, die auto- nom vorgegebene Strecken mit Hindernissen abfahren.

Die autonome Fortbewegung ist eine alte Vision der Menschheit. Wiktor Wasnezow malte 1880 einen zwar von einem Menschen geführten, aber im Wesentlichen autonom fliegenden Teppich.

Im Jahr 2035 könnten laut einer Studie der Untemehmensberatung Oliver Wyman teil- und vollautomatisierte Fahrzeuge zwischen 20 und 35 Prozent der globalen Fahrzeug- produktion ausmachen. Das Fraunhofer-Institut IAO prognostizierte im November 2015 in einer Studie im Auftrag des Bundeswirtschaftsministeriums, das autonome Fahren werde„bereits vor 2025 technische Reife erlangen“ und danach eine„Wertschöpfung am Standort Deutschland in Höhe von 8,8 Milliarden Euro“ ausmachen.

Im Dezember 2016 übergab die Deutsche Akademie der Technikwissenschaften (aca- tech) dem Bundesverkehrsministerium eine Studie, in der acatech nicht vor 2030 mit autonomen Fahrzeugen rechnet. Gleichzeitig werden seit Oktober 2016 alle Tesla- Fahrzeuge mit einer Hardware ausgeliefert, die es zukünftig erlauben soll, die Fahrzeu- ge vollautonom, d. h. nach dem SAE Level 5 zu fahren. Die Prognose von Tesla, dass das autonome Fahren bereits im Jahr 2017 mit den Tesla-Fahrzeugen möglich sein wird, bewahrheitete sich nicht. 2019 war auf der Tesla-Website zu lesen, dass das Sy- stem einen autonomen Betrieb„unter fast allen Umständen“ ermöglichen solle.

In Europa (u. a. Bundesanstalt für Straßenwesen) und den USA (z. B. SAE J3016) wird die Klassifizierung des autonomen Fahrens in sechs Stufen vorgenommen :

Autonomiestufe 0: Selbstfahrer („Driver only“), der Fahrer fährt selbst (lenkt, be- schleunigt, bremst etc.) Autonomiestufe 1 : Fahrerassistenz. Bestimmte Assistenzsysteme helfen bei der Fahr- zeugbedienung, beispielsweise der Abstandsregeltempomat (ACC).

Autonomiestufe 2: Teilautomatisierung. Funktionen wie automatisches Einparken, Spurhalten, allgemeine Längsführung, Beschleunigen, Abbremsen werden von den As- sistenzsystemen übernommen, z. B. vom Stauassistent.

Autonomiestufe 3: Bedingungsautomatisierung. Der Fahrer muss das System nicht dau- ernd überwachen. Das Fahrzeug führt selbstständig Funktionen wie das Auslösen des Blinkers, Spurwechsel und Spurhalten durch. Der Fahrer kann sich anderen Dingen zu- wenden, wird aber bei Bedarf innerhalb einer Vorwarnzeit vom System aufgefordert die Führung zu übernehmen. Der Gesetzgeber arbeitet darauf hin, Autonomiestufen-3- Fahrzeuge zuzulassen.

Autonomiestufe 4: Hochautomatisierung. Die Führung des Fahrzeugs wird dauerhaft vom System übernommen. Werden die Fahraufgaben vom System nicht mehr bewäl- tigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.

Autonomiestufe 5: Vollautomatisierung. Kein Fahrer erforderlich. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich. Das Fahrzeug kommt ohne Lenkrad und Pedale aus.

Die SAE definiert Fahrmodus (Driving Mode) als ein Szenario mit einer Art von Fahrszenario mit charakteristischen dynamischen Fahraufgabenanforderungen (z. B. Schnellstraßenmischung, Hochgeschwindigkeitsfahrt, Niedriggeschwindigkeitsstau, Betrieb auf geschlossenem Campus usw.). Die dynamische Fahraufgabe umfasst die Betriebsabläufe (Lenken, Bremsen, Beschleunigen, Überwachen des Fahrzeugs und der Fahrbahn) und taktische Fahraufgabenaspekte (Reaktion auf Ereignisse, Festlegen, wann Spurwechsel, Wende, Verwendung von Signalen usw. erforderlich sind), nicht je- doch den strategischen Fahraufgabenaspekt (Bestimmung von Zielen und Wegpunk- ten). Die Anfrage des Systems ist die Benachrichtigung eines menschlichen Fahrers durch das automatisierte Fahrsystem, dass er die Durchführung der dynamischen Fahr- aufgabe unverzüglich beginnen oder wiederaufnehmen soll.

Technisch hat sich das autonome Fahren aus den Fahrerassistenzsystemen entwickelt. Das früheste (1958) stammte von Chrysler und nannte sich Cruise Control (Tempomat). Es regelte die Längsbeschleunigung automatisch, jedoch ohne Kenntnis der umgeben- den Fahrzeuge. Die vollautomatische Längsführung (Adaptive Cruise Control, ACC) berücksichtigt den Verkehr und stellt eine Form des teilautonomen Fahrens dar.

Das autonome Fahren gilt als Paradigmenwechsel, ist jedoch technisch ein evolutionä- rer Prozess. Voraussetzung ist das Vorhandensein von Sensoren (Radar, Video, Laser) und Aktoren (in der Motorsteuerung, der Lenkung, den Bremsen) im Fahrzeug. Die Au- tonomie selbst stellen Computer im Auto bereit, die die Sensordaten fusionieren, sich daraus ein Bild der Umwelt formen, automatische Fahrentscheidungen treffen und sie an die Aktoren weiterleiten. Zur Bewältigung der großen Datenmengen, etwa beim Er- kennen von Verkehrszeichen, wird vor der Implementierung in die Fahrzeuge häufig maschinelles Lernen eingesetzt. Medientheoretiker fordern einen breiteren gesellschaft- lichen Dialog über die Auswirkungen des autonomen Fahrens, insbesondere bei Di- lemmasituationen, wo der Bordrechner Schaden nicht mehr vermeiden kann, sondern Schäden gewichten muss - im Grunde ethische Entscheidungen.

Rechtlich steht dem autonomen Fahren das international verabschiedete Wiener Über- einkommen über den Straßenverkehr von 1968 entgegen, das in Art. 8 (5) explizit dem Fahrzeugführer die dauernde Fahrzeugbeherrschung vorschreibt. Seit 2015 wird eine Modifizierung des„Wiener Weltabkommens“ vorgenommen, um teilautonome Syste- me zuzulassen. Das autonome Fahren ist derzeit nur zu Testzwecken mit Sondergeneh- migung möglich. Beispielsweise hat Daimler für zwei seiner Freightliner Inspiration Trucks mit dem Highway Pilot System eine Lizenz für den Straßenverkehr im US- Bundesstaat Nevada erhalten. Im Dezember 2011 wurde bekannt, dass Google nach mehreren Jahren der Entwicklung ein US-Patent für die Technik zum Betrieb von autonomen Fahrzeugen gewährt wurde. Die Testflotte hatte nach Aussage des Unternehmens zu diesem Zeitpunkt bereits ca. 257.000 km (160.000 Meilen) unter begrenzter Einwirkung des Fahrers sowie mehr als 1600 km (1000 Meilen) ohne Fahrerbeteiligung zurückgelegt. Im Mai 2012 erhielt Google in den USA die erste Zulassung eines autonomen Fahrzeugs für den Test auf öf- fentlichen Straßen des US-Bundesstaates Nevada. Bedingung war jedoch, dass sich eine Person hinter dem Steuer befindet, die notfalls eingreifen kann. Das Google-Roboter- Auto soll aber bereits im Dezember 2013 sicherer gefahren sein als ein menschlicher Autofahrer. [18] Lange Zeit versuchte Google für sein laufend an hierfür gekauften Mo- dellen von Toyota, Honda, Audi, Lexus und VW weiterentwickeltes Technikpaket Google Driverless Car einen passenden Autohersteller zu finden und favorisierte hierfür Tesla Motors.

Später begann Google jedoch, 100 hauseigene Elektro-Testfahrzeuge zu bauen und er- ste Prototypen dieses neuen Fahrzeugtyps ohne Lenkrad, Bremse und Gaspedal mit körperlich bedürftigen und anderen interessierten Personen zu testen. Im Mai 2014 stellte Google sein Roboterauto erstmals einer Gruppe von Journalisten vor, die im Vergleich zwischen menschlichem Fahrer und selbstfahrendem System keinen Unter- schied im Fahrverhalten mehr feststellen konnten. Google erklärte jedoch, dass das Fah- ren bei Regen und Schnee nach wie vor Probleme bereite. Das Robotersystem beruhe auf selbstständigem Lernen und selbstständiger Erfassung und Interpretation der Um- gebung. Als Start für den Massenmarkt hatte Google-Mitgründer Sergey Brin im Mai 2014 das Jahr 2017 als Ziel für die USA angegeben. Dieser Zeitpunkt konnte aber nicht eingehalten werden.

Im Juli 2014 fuhr in Deutschland ein Prototyp der Daimler AG (Future Truck 2025) auf dem damals noch nicht eröffneten Autobahnteilstück (BAB A14 nördlich von Magde- burg) völlig selbständig, insbesondere im Kolonnen verkehr, jedoch ohne autonomes Wechseln der Spur. Am 2. Oktober 2015 fuhr erstmals ein seriennaher Lkw mit Teilau- tonomie (Ausnahmegenehmigung nach § 70 StVZO) auf einer öffentlichen Straße, und zwar der BAB A8 in Baden-Württemberg.

Ab 2016 kommt es zum experimentellen Einsatz von autonomen Kleinbussen im öf- fentlichen Nahverkehr, insbesondere mit autonomen Shuttlebussen der Marke Navya in Sitten/Schweiz und in Lyon/Frankreich. Seit Oktober 2016 werden alle Tesla-Fahrzeuge mit einer Flardware ausgeliefert, die es erlaubt, die Fahrzeuge zukünftig vollautonom, d. h. nach SAE Level 5 zu fahren. Vorerst wird das System in einem„Schatten-Modus“ mitlaufen, d. h. ohne in den Fährbetrieb einzugreifen, und die gesammelten Daten an Tesla zurücksenden, um die Fähigkeiten des Systems schrittweise zu verbessern, bis das System zur Freigabe mittels eines over-the-air Upgrades bereit ist. Tesla schätzte, dass ein komplett autonomes Fahren Ende 2017 möglich sein würde. Dann sollte es eine Demonstrationsfahrt von San Francisco nach New York geben, bei der ein Fahrzeug die Strecke ohne Fahrer zurücklegen sollte. Der Zeitplan für das autonome Fahren konnte nicht eingehalten werden und die Testfahrt wurde daher nicht durchgeführt.

Ab Januar 2017 testet der Automobilzulieferer Delphi Automotive ein autonom fahren- des Demonstrationsfahrzeug. Das zusammen mit Mobileye entwickelte Fahrzeug soll auf einer rund 10 Kilometer langen Teststrecke im öffentlichen Verkehr von Las Vegas alltägliche Verkehrssituationen wie etwa Autobahnauf- und abfahrten, Tunnelpassagen und dichten innerstädtischen Verkehr bewältigen.

Im April 2017 kündigten Bosch und Daimler eine Kooperation an. Gemeinsam sollen autonome Fahrzeuge für das urbane Umfeld entwickelt werden. Diese sollen vollauto- matisiertes (SAE-Level 4) und fahrerloses (SAE-Level 5) Fahren beherrschen. Über ei- ne Smartphone App soll es dann ermöglicht werden ein selbstfahrendes Taxi oder ein Car-Sharing-Auto zu bestellen, welches selbstständig zum Kunden fährt. Durch den Einsatz von autonomen Fahrzeugen erhoffen sich die Kooperationspartner den Ver- kehrsfluss in Städten zu verbessern, die Verkehrssicherheit zu erhöhen und Attraktivität von Car-Sharing zu steigern. Im August 2017 stellte Audi vor der IAA das erste Serienfahrzeug mit Funktionen der Automatisierungsstufe 3 vor, diese umfassen die hochautomatisierte Führung des Fahr- zeuges auf Autobahnen bei Geschwindigkeiten unter 60 km/h und in Stausituationen. Dabei wird die gesamte Verantwortung über das Fahrzeug an den Staupiloten abgege- ben und es besteht keine Kontrollpflicht durch den Fahrer. Aufgrund fehlender ECE- Zulassung wird dieses System jedoch erst ab 2019 in Europa einsetzbar sein.

Im Juli 2019 gab BMW bekannt, dass gemeinsam mit dem chinesischen IT- Unternehmen Tencent ein Rechenzentrum in der ostchinesischen Hafenstadt Tianjin gebaut werden soll. "BMW kann damit Lösungen für das autonome Fahren entwickeln, die besser zu den spezifischen Fahrbedingungen in China passen", erklärte der China- Chef von BMW, Jochen Goller.

Das autonome Fahren wirft schwierige haftungsrechtliche Fragen auf, die ethisch und rechtsphilosophisch beantwortet werden müssen.

Das Thema ist mehrmals vom Deutschen Verkehrsgerichtstag beraten worden. Die ständige Kommission des 53. Deutschen Verkehrsgerichtstags ging im Januar 2015 da- von aus, dass die Technik einen wesentlichen Beitrag zur Verbesserung der Sicherheit und Leichtigkeit des Straßenverkehrs leisten könne. Eine vollständige und dauerhafte Einführung des Systems würde nach den derzeitigen rechtlichen Möglichkeiten aber nicht gegeben sein. Daneben wurde gefordert, dass der Fahrer selbst über die Nutzung des Systems entscheiden könne (Abschaltbarkeit) und jederzeit über den Automatisie- rungsgrad informiert werde. Der hochautomatisierte Fährbetrieb müsse dann den Fahrer von Sanktionen und der Fahrerhaftung freisteilen.

Der 54. Deutsche Verkehrsgerichtstag im Januar 2016 endete mit einem Streitgespräch zum autonomen Fahren. Schwerpunkte der Diskussion waren der ethische Aspekt (wie soll der Algorithmus in„Dilemmasituationen“ reagieren) und die gesellschaftliche Ak- zeptanz. Erschwert werden die Dilemma-Situationen dadurch, dass international ver- schiedene Rechts- und Werteverständnisse aufeinander treffen und man sich möglich- erweise nicht auf eine gemeinsame Ethik einigen könne.

Die kalifornische Kraftfahrzeugbehörde DMV (California Department of Motor Vehic- les) hat im Dezember 2015 bestimmt, dass autonome Fahrzeuge in dem US- amerikanischen Bundesstaat mit Lenkrad und Pedalen ausgestattet sein müssen. Fahr- zeugführer müsse ein fahrtüchtiger Insasse mit Fahrerlaubnis sein, der jederzeit das Steuer übernehmen und in die Fahrt eingreifen könne. Google zeigte sich über diese Entscheidung„sehr enttäuscht“, weil sie die technischen Möglichkeiten der Fahrzeuge verkenne und den Markt für selbstfahrende Autos behindere. Außerdem werde so die Mobilität von Menschen, die kein Auto lenken können, beschränkt.

Im Gegensatz dazu setzt der Bundesstaat Arizona bei der Regulierung selbstfahrender Autos auf eine im Vergleich zu anderen Bundesstaaten besonders liberale Gesetzge- bung, um im Standortwettbewerb für Technologiefirmen attraktiv zu sein. Im Herbst 2017 führte Waymo in Arizona die ersten selbstfahrenden Fahrzeuge ein, die vollstän- dig ohne menschliche Überwachung auskommen. Der Fahrersitz kann unbesetzt blei- ben. Allerdings werden diese Fahrzeuge bisher nur in einem dünn besiedelten Vorort von Phoenix eingesetzt, der bezüglich der Komplexität des Verkehrsgeschehens eher geringe Anforderungen an das Auto stellt. Im Mai 2015 forderte der Bundesrat die Bundesregierung auf, zusätzlich zu einer Teilstrecke der südlichen Autobahn A9 zügig weitere Strecken für autonome Fahrtests zuzulassen.

Seit dem Sommer 2016 arbeitete das Bundesverkehrsministerium an einem Gesetzes- entwurf zum automatisierten Fahren. Ein Kernpunkt des Entwurfes bezog sich auf die Verkehrspflichten des Fahrzeugführers. Ihm sollte es erlaubt sein, dass er sich während der Fahrt abwenden dürfe, solange er jederzeit„wahrnehmungsbereit“ bleibe. Er müsste also sofort nach einer Aufforderung durch die Fahrautomatik wieder selbst das Lenkrad übernehmen. Weiterer Kernpunkt war die Neuregelung des Haftungsrisikos. Ungeklärt war, ob der Fahrzeugführer fahrlässig handeln würde, wenn er sich ganz auf die im Auto verbaute Technik verließe. Kritiker beschrieben den Gesetzesentwurf als politischen Aktionismus. Es fehle bisher an Substanz, und viele relevante Aspekte, z. B. bezüglich der Führerscheinausbildung, aber auch der Datenschutz sei nicht geregelt worden. Eine im Ministerium angesiedelte Ethik-Kommission, an der Vertreter der Au- tomobilindustrie und des ADAC sowie Verbraucherschützer unter Vorsitz des früheren Bundesverfassungsrichters Udo Di Fabio teilhaben sollten, hat Leitlinien für die Pro- grammierung automatisierter Fahrsysteme entwickeltet)] und dies in einem Bericht zu- sammengefasst.

Am 25. Januar 2017 hatte die Bundesregierung einen Gesetzentwurf beschlossen, der autonomes Fahren auf den Straßen des Landes unter bestimmten Voraussetzungen zu- lassen soll. Der Entwurf kam auch auf Drängen der Daimler AG zustande. Das Gesetz zur Änderung des Straßenverkehrsgesetzes wurde am 30. März 2017 im Bundestag be- schlossen. Demnach darf sich der Fahrzeugführer in einem entsprechend ausgestatteten Fahrzeug während des Fahrens„mittels hoch- oder vollautomatisierter Fahrfunktionen ... vom Verkehrsgeschehen und der Fahrzeugsteuerung abwenden; dabei muss er derart wahrnehmungsbereit bleiben, dass er seiner Pflicht ... jederzeit nachkommen kann.“

In dem Fahrzeug wird es eine Blackbox geben, die alle relevanten Daten aufzeichnet, sechs Monate lang speichert und danach löscht, es sei denn, das Fahrzeug wäre in einen Verkehrsunfall verwickelt gewesen; in diesem Fall blieben die Daten zur Ermittlung des Hergangs erhalten. Kritiker wiesen darauf hin, das neue Gesetz lasse nicht nur viele Fragen offen, auch die Kernprobleme seien dadurch nicht gelöst worden. Für den Ver- braucher verbleibe es bei zu viel Rechtsunsicherheit. Auch die Vorratsdatenspeicherung der Fahrzeugdaten sei nicht im Sinne des Verbrauchers und nicht hinzunehmen.

Da es auch bei autonomen/selbstfahrenden Straßenfahrzeugs Situationen geben kann, in denen Unfälle mit Personenschäden unvermeidbar sind, muss im Vorfeld entschieden werden, welchen Maximen ihr Verhalten in solchen Situationen folgen soll. Ein menschlicher Fahrer würde in einer plötzlichen Situation, wenn beispielsweise ein Kind auf die Straße läuft, instinktiv reagieren, ohne sich überhaupt aller relevanten Faktoren (etwa der Personen auf dem Bürgersteig) bewusst zu sein. Überlegungen, welches Han- deln moralisch zu rechtfertigen ist, wird er nicht in der Lage sein zu tätigen. Allerdings trifft das bei autonomen/selbstfahrenden Autos nicht zu. Die Entscheidung, wie sich das Fahrzeug in welcher Situation zu verhalten hat, wird lange vor einem eventuellen Un- fall getroffen. Diese Tatsache hat erhebliche Konsequenzen für die Bewertung eines Unfalles durch ein autonomes Auto. So stellen sich beispielsweise folgende Fragen: Kann eine Maschine die Situation überhaupt richtig bewerten, beispielsweise zwischen einem Puppenwagen und einem echten Kinderwagen unterscheiden?

Würde ein Aufrechnen von Menschenleben (utilitaristisch) eine unzumutbare Instru- mentalisierung der„Geopferten“ darstellen?Wenn ein Aufrechnen sinnvoll wäre, wie ist dies zu organisieren, also welche Kriterien spielen eine Rolle (z. B. die Anzahl von Menschen oder das Alter)?Insbesondere die letztgenannte Frage ist Gegenstand aktuel- ler Forschung Je stärker der Praxisbezug einer eventuellen Programmierung (in morali- schen Fragen) einer Maschine wird, desto mehr häufen sich Probleme.

Ein Forschungsteam vom Max-Planck-Institut für Bildungsforschung, dem Mas- sachusetts Institute of Technology (MIT) und der University of Exeter hat fast 5000 Menschen die Frage gestellt, wer schuld an einem Unfall habe, wenn bei der Fahrt mit einem teilautonomen Fahrzeug sowohl der Mensch, als auch die intelligente Technik Fehler machten. Ergebnis: In Szenarien, in denen Mensch und Maschine sich die Kon- trolle über das Fahrzeug teilten und beide einen Fehler machten, gaben die Befragten eher dem Menschen die Schuld an dem Unfall - unabhängig davon, ob er der erste oder zweite Fahrer war. Warum Menschen eher anderen Menschen die Schuld geben und nicht den autonomen Fahrzeugen, sei eine offene Frage, so die Forscher. Generell neig- ten Menschen dazu, Ursachen für Ereignisse eher anderen Menschen zuzuschreiben, als dem Zufall oder der Umwelt. Ein von künstlicher Intelligenz gesteuertes Fahrzeug sei in der Vorstellung der Menschen - bisher - kein eigenständiger Akteur, der handeln und frei entscheiden könne. Deshalb tendierten Menschen dazu, Maschinen von der Schuld freizusprechen. Die USA sind Vorreiter in der Erprobung autonomer Fahrzeuge. 2015 waren in Kali- fornien 48 solcher PKW für den öffentlichen Verkehr zugelassen. Das California De- partment of Motor Vehicles (DMV), die staatliche KFZ-Zulassungsstelle, erteilt Fahr- genehmigungen und überwacht die Tests autonomer Fahrzeuge. Im Rahmen der Ver- ordnung müssen Unternehmen, denen Genehmigungen für den Betrieb autonomer Fahrzeuge erteilt wurden, jährlich Berichte über Ausfälle und Unfälle einreichen, die dann vom DMV veröffentlicht werden Googles vollautonome Autos waren in mehrere Unfälle verwickelt, meist innerhalb von Ortschaften. In einem der bekannt gewordenen Fälle hat der autonome Algorithmus den Unfall verursacht.

Am 7. Mai 2016 kam es zu einem tödlichen Unfall eines Fahrzeugs vom Typ Tesla Model S. Wie weit die Autonomie dieses Fahrzeugs tatsächlich ging, unterliegt seitdem Ermittlungen. Der Tesla-Fahrer starb bei einer Kollision mit einem entgegenkommen- dem, nach links abbiegenden Sattelzug, ohne dass„Autopilot“ oder Fahrer eine Brem- sung eingeleitet hätten. Das Fahrassistenz-System soll den Sattelauflieger mit einem hochhängenden Schild verwechselt haben. Die National Highway Traffic Safety Admi- nistration leitete formal Ermittlungen ein.

Kritisch ist derzeit eine Vielzahl von Fällen, bei denen der Fahrer von Tesla-Autos den sog. Autopilot übernehmen lässt, während der Fahrer sich zum Schlafen legt. Dieses Verhalten entspricht nicht den Spezifikationen des Fahrzeugs und nicht den Richtlinien des Herstellers.

Der Begriff Selbstfahrer (Selbstfahrendes Spezialfahrzeug) bezieht sich auf eine Trans- portplattform auf Rädern, die nicht notwendigerweise wie ein Lkw-Anhänger gezogen werden muss, sondern auch selbst mit einem Antriebsmotor ausgestattet ist. Ein solches Fahrzeug kann an weitere desselben Systems starr angekoppelt oder auch nur über La- degut mit einem anderen gekoppelt sein. Diese Selbstfahrer werden typisch per Fern- steuerung von einem daneben gehenden Bediener gesteuert. Verschiedene Manöver wie Drehen am Stand oder Versetzen zur Seite können mittels automatisierter Abläufe ab- gerufen werden.

Mobilkrane haben mitunter Assistenzsysteme, die ein Aufnehmen von zu schwerer Last, die den Kranarm zum Knicken oder den Kran zum Kippen bringen könnte, abbre- chen, oder das zu weite Ausladen einer bereits gehobenen Last. Die Streckenaufnahme für einen Sondertransport mit großen Ausmaßen und/oder großem Gewicht wurden ehemals an Hindernissen, Engstellen und Kurven zuerst vermessen und der Transport unter genauer Beobachtung mit Lenkgefühl von erfahrenen Menschen händisch gefah- ren. Heute besteht die Möglichkeit Routen im Zuge einer Vorausbefahrung per 3D- Laserscan geometrisch präzise zu erfassen und eine Durchfahrt mit der bekannten Geometrie der Last rechnerisch zu simulieren.

Autonomes Fahren wird auch für Schienenwege entwickelt. Seit 1985/1986 pendelt die Dorfbahn Serfaus in Tirol in einem Tunnel als seilgezogene Luftkissenbahn zwischen vier Stationen völlig autonom insbesondere mit Skifahrem. Ein Abschnitt der für den Personenverkehr aufgelassenen Pinkatalbahn soll der Entwicklung autonom fahrender Schienenfahrzeuge dienen. Verschiedene U-Bahn-Linien fahren autonom, typisch sind Trennwände längs des Bahnsteigs mit Türen, die sich vor jeder Wagentür öffnen. In Wien wird zumindest eine Linie weitgehend autonom betrieben, dennoch sitzt eine Per- son im Führerstand, um den Bahnsteig zu überwachen.

49. Informationstechnik

Informationstechnik (kurz IT, häufig englische Aussprache [ai ti:], sehr häufig auch mit dem redundanten Akronym IT-Technik bezeichnet) ist ein Oberbegriff für die Informa- tions- und Datenverarbeitung auf Basis dafür bereitgestellter technischer Services und Funktionen. Diese werden auf einer dahinterliegenden technischen IT -Infrastruktur be- reitgestellt. Es spielt dabei keine Rolle, ob die Services- und Funktionen als auch die technische IT-Infrastruktur physisch vor Ort oder virtuell oder über Netze bereitgestellt werden. (Informationstechnisches System). Eigentlich versteht man unter dem Begriff speziell elektronische Informationstechnik (EIT), zur Informationstechnik gehören auch nicht-elektronische Systeme (wie die an- fangs rein elektrische Telefonie und Telegraphie). Der eigentliche Fachbegriff ist aber (elektronische) Informations- und Datenverarbeitung (EID), der die anfangs getrennten Techniken der Kommunikationsmedien (, Information 1 im ursprünglichen Sinne der Mitteilung) und der Datenverarbeitung im engeren Sinne (von Akten, Zahlenreihen und ähnlichem, EDV) zusammenfasst. Da die beiden Begriffe Information und Daten heute in der Praxis inhaltlich weitgehend verschmolzen sind, wie auch Technik und Verarbei- tung nicht zu trennen sind, wird der Ausdruck„IT“ für den gesamten technologischen Sektor verwendet.

Die Ausdrücke Informationstechnik und Informationstechnologie können - im nicht- wissenschaftlichen Bereich - als synonym angesehen werden: Unter„Technik“ versteht man üblicherweise allenfalls speziell die konkrete praktische Umsetzung (Anwendung), unter„Technologie“ die Forschung und Entwicklung und die theoretischen Grundlagen. In dem hoch innovativen Sektor wie auch bei Software ist das kaum trennbar.

Als zeitgemäße Veranschaulichung zur Einordnung der IT in übergeordnete Systeme eignet sich eine Betrachtung im 3-Ebenen-Modell. Sie zeigt verbundene technische Sy- steme und deren Nutzen für einzelne User oder für Prozesse in Organisationen: [1]

Eine andere Sicht auf die IT, die Sicht der durch die IT angebotenen Dienste, bietet das Konzept SOA (Serviceorientierte Architektur).

Vier Teilgebiete werden heute teils unterschieden:

Business-IT beinhaltet die IT von Flandel, Börse, Versicherungen, Banken und Steuer- wesen.

Industrielle IT befasst sich mit der Vernetzung der Maschinen in Herstellungs- und Produktionsprozessen innerhalb eines Werkes, zunehmend aber auch über die Werk- und Finnengrenzen hinweg (Supply Chain). Neuerdings wird die Industrielle IT direkt an die Geschäftsprozesse angebunden. So entstehen etwa Schnittstellen zwischen den Bussystemen, die die Maschinen steuern, und den Ressourcen-Planungs-Systemen (ERP-Software).

„Eine gebräuchliche Bezeichnung im Einsatzgebiet industrieller IT ist der Fachbegriff Operational Technology (OT), der versucht, alle interagierende Komponenten in kom- plexen und abhängigen Systemen zu beschreiben. Diese Komponenten werden meist über SCADA-Systeme hochintegriert gesteuert und überwacht.“

Kommunikations-IT befasst sich mit dem Einsatz der Telekommunikation.

Unterhaltungs-IT befasst sich mit Spielgeräten und Multimedia-Anwendungen.

Die Informationstechnik stellt ein Bindeglied zwischen der klassischen Elektrotechnik und der Informatik dar. Das wird z. B. dadurch ersichtlich, dass sich viele elektrotech- nische Fakultäten von Hochschulen und Abteilungen höherer Schulen (z. B. Höhere Technische Lehranstalten, HTLs) in„Informationstechnik“ oder zumindest in„Elektro- technik und Informationstechnik“ bzw.„Informationstechnologie“ umbenennen.

Der Informationstechnik nahe ist die Technische Informatik, die sich unter anderem mit Schaltnetzen und -werken sowie dem Aufbau und der Organisation von Computern be- schäftigt. Aber auch die (Hardware-)Aspekte der Ausgabe- und Eingabegeräte, also klassische und zukünftige Mensch-Maschine-Schnittstellen (Human-Computer Inter- faces), gehören in diesen Bereich.

Digitale Signalverarbeitung und Kommunikationstechnik sind wiederum Grundlage für Rechnernetze. Das Zusammenwachsen von Informationstechnik, Telekommunikation und Unterhaltungselektronik wird daher auch oft als Informations- und Kommunikati- onstechnik (IuK) oder Informations- und Telekommunikationstechnik (ITK) bezeich- net.

Entwicklungen der IT haben in den letzten Jahrzehnten viele Lebensbereiche verändert, so neben der Wirtschaft auch die Wissenschaft. Hierbei ist auch die Erforschung und Entwicklung der Mensch-Computer-Interaktion zunehmend relevant geworden. Durch den verbreiteten Einsatz von IT hat diese durch ihren Ressourcen verbrauch auch einen erheblichen Einfluss auf das Ökosystem der Erde. Nachhaltige und umwelt- freundliche IT wird als Grüne IT bezeichnet.

Die Informationstechnik wird von Unternehmen, der Verwaltung, Vereinen, privaten und sonstigen Anwendern genutzt. Für einen reibungslosen Ablauf ist die Sicherheit von hoher Bedeutung. Ohne Schutzmechanismen können Hacker, Cracker oder Script- kiddies die Infrastruktur durch Schadprogramme oder andere Manipulationen wie Über- lastung stören oder schädigen. Durch Schutzsoftware und weitere präventive Maßnah- men kann den Attacken vorgebeugt werden.

Das Wachstum der globalen Kapazität der Digitaltechnik wurde in drei unterscheidba- ren Gruppen quantifiziert:

-Die wachsende Kapazität, Information durch den Raum zu übertragen (Kommunikation);

-die Kapazität, Information durch die Zeit zu übermitteln (Speicherung); und

-die Kapazität, mit Information zu rechnen (Informatik):

Die effektive Kapazität der Weltinformationen durch das (bidirektionale) Telekommu- nikationsnetz betrug 280 (optimal komprimierte) Petabyte 1986, und 20 % davon wur- den in digitalen Netzwerken übertragen. Im Jahr 2007 wuchs diese weltweite Kapazität auf 65 (optimal komprimierte) Exabyte, wobei 99,9 % der übermittelten Information in digitalen Bits übertragen wurden. Dies ist eine jährliche Wachstumsrate von 30 % und fünfmal so schnell wie das weltweite Wirtschaftswachstum.

Die globale technologische Kapazität, Informationen zu speichern, ist von 2,6 (optimal komprimierten) Exabyte im Jahr 1986 auf 300 (optimal komprimierten) Exabyte im Jahr 2007 gewachsen, wobei 1986 weniger als 1 % der globalen Speicherkapazität digi- tal war, und 2007 fast 95 %. Dies ist das informationale Äquivalent von 404 Milliarden CD-ROMs für 2007. Es wird angenommen, dass es der Menschheit 2002 erstmals mög- lich war, mehr Information digital als im Analogformat zu speichern; quasi der Beginn des„digitalen Zeitalters“. Die technologische Kapazität der Welt, Informationen mit digitalen Mehrzweck- Computern zu berechnen, ist von 3,0 * 108 MIPS im Jahr 1986 bis zu 6,4 x 1012 MIPS im Jahr 2007 gewachsen, was einer jährlichen Wachstumsrate von 60 % entspricht, also zehnmal schneller als das globale Wirtschaftswachstum.

50. Telematik

Telematik (zusammengesetzt aus Telekommunikation und Informatik) ist eine Technik, welche die Bereiche Telekommunikation und Informatik verknüpft. Telematik ist also das Mittel der Informationsverknüpfung von mindestens zwei Informationssystemen mit Hilfe eines Telekommunikationssystems sowie einer speziellen Datenverarbeitung. Der Begriff wurde von Nora und Mine (1978) im Rahmen ihrer Studie zur Informatisie- rung der Gesellschaft geprägt.

Die Wirkungsbereiche von Telematik sind derzeit: Telebanking, Teleshopping, Te- leleaming, Televoting, Telemedizin, und Telearbeit. Zu den Kembereichen, mit denen die Telematik sich befasst, gehören Rechnemetze wie z. B. das Internet, Telefon- und Mobilfunknetze.Daneben zählen zur Telematik u. a. die folgenden Spezialgebiete: Ver- kehrstelematik, Flottenmanagement, Gebäudeautomatisierung (Facilitymanagement), Femwirken, E-Commerce (Logistik), Gesundheitstelematik/Telemedizin (E-Health), Bildungstelematik (E-Leaming), Sicherheitstelematik, Branchentelematik, M2M- Telematik

Es ist umstritten, ob es sich bei der Telematik um ein eigenständiges Fachgebiet han- delt, oder ob sie ein Teilgebiet der Informatik ist. Über die Jahre haben sich eigenstän- dige Studiengänge und Berufsverbände gebildet.

51. Telemetrie

Telemetrie („Feinmessung“; von altgriechisch: tήle tele„fern“ und mέtron etron „Maß, Maßstab“) ist die Übertragung von Messwerten eines am Messort befindlichen Messfühlers (Sensor) zu einer räumlich getrennten Stelle. An dieser Empfangsstelle können die Messwerte entweder nur gesammelt und aufgezeichnet oder auch sofort ausgewertet werden.

Telemetrie wird häufig durch einen (Rück-)Wirkungspfad zum erfassenden Sensor er- gänzt, um so auf gelieferte Messwerte mit geeigneten Maßnahmen reagieren zu können. Dieser Rückpfad wird als Fernsteuerung (Telekommandierung, Tele-Command) be- zeichnet.

Eine Telemetrie, bei der Messdaten über größere Entfernungen übertragen werden, wird als Fernfeldtelemetrie bezeichnet. Dies ist beispielsweise gegeben

beim Sammeln von Wetterdaten, beim Sammeln technischer Daten aus einem bewegten Fahrzeug (Flugzeug, Raumfahrzeug, Rennwagen), beim Tracking wandernder Tiere, wie Luchs oder Wespenbussard in der Wildtier-Telemetrie; wenn Tiere mit Tele- metriesendem versehen werden, spricht man von Besenderung, bei der Übermittlung dezentraler Verkehrsinformationen, bei der Übermittlung medizinischer Daten einge- setzter Sonden an die Außenwelt. Häufig werden die Daten an räumlich weit getrennten Messorten aufgenommen und per Telemetrie an eine zentrale Stelle gesendet, um dort aufgezeichnet und/oder ausgewertet zu werden.

Als Nahfeldtelemetrie bezeichnet man Anwendungen, bei denen Daten über kurze Di- stanzen von bewegten Maschinenteilen auf ruhende Empfänger übermittelt werden. So werden beispielsweise Zustandsdaten von Gasturbinenrotoren oder Reifendrücke von drehenden Kfz-Rädem übermittelt.

In der Regel müssen die anfallenden Messwerte zunächst in eine geeignete Form ge- bracht werden, damit sie telemetriert werden können. Besondere Aufmerksamkeit er- fordert die Übertragung von Gleichspannungssignalen, wie sie z. B. bei resistiven oder kapazitiven Sensoren anfallen (z. B. Spannungsänderung an einem mit konstantem Strom durchflossenen, temperaturabhängigen Widerstand). Durch geeignete Maßnah- men ist eine solche Messspannung in eine Wechselspannung oder in eine Pulsfolge um- zusetzen, damit Änderungen der Versorgungsspannung und Temperaturdriften der Übertragungsbausteine keine Messwertänderung Vortäuschen. Dafür geeignet ist bei- spielsweise eine Pulsfolge, deren Pulsfrequenz oder -dauer vom Widerstands- oder Ka- pazitätswert des Fühlers abhängt.

Die Übertragungsffequenz des Telemetriesenders kann mit einer solchen Pulsfolge oder mit einem vom Sensor unmittelbar gelieferten Wechselstromsignal moduliert werden.

Im Empfänger wird dieses Signal durch eine geeignete Demodulation zurückgewonnen und daraus der zugehörige Messwert abgeleitet. Bei analogen Messsignalen wird hier- für beispielsweise ein Pulsformer mit nachgeschaltetem Tiefpassfilter angewendet.

Heute sind praktisch nur noch digitale Telemetriesysteme gebräuchlich. Der erfasste Messwert wird vor Ort mit Hilfe eines Analog-Digital-Wandlers (ADC = A/D- Converter) in eine binäre Zeichenfolge umgesetzt, die anschließend mit geeignet modu- liertem Träger telemetriert und empfangsseitig ohne Informationsverluste rekonstruiert werden kann.

Dabei sind die Unterschiede in der verfügbaren Datenbandbreite gewaltig: einfache Nahfeld- und die meisten Femfeldtelemetrien müssen mit wenigen kbit/Sekunde aus- kommen, was zur Überwachung stationärer Zustände von wenigen Parametern aus- reicht. Dagegen können Nahfeldtelemetrien ftir Turbomaschinen in Summe bis zu 180 Mbit/Sekunde übertragen (HF-Technik); mit optischer Übertragung an der Rotorachse sind sogar über 600 Mbit/Sekunde möglich. Derartige Systeme können eine Vielzahl von Schwingungsmessstellen mit hoher Bandbreite simultan überwachen.

Sensor-Netzwerke können als eine neue Technologie der Telemetrie in Betracht gezo- gen werden, in dem viele Sensoren die Signalstärke ihrer Nachbarn zur Entfemungser- mittlung kombinieren.Dadurch entsteht bei zahlreichen Teilnehmern eine präzise Funk- ortung mit einfachen Mitteln.

Bei der Telemetrie als eine Methode der Zoologie kommen verstärkt GPS-Empfanger zum Einsatz, die gegenüber dem Einsatz herkömmlicher Funkpeilung oder Satelliten- telemetrie deutlich weniger Arbeitsaufwand und umfangreichere und genauere Datener- fassung ermöglichen. Heutzutage wird vermehrt die Datenübertragung mittels GSM/UMTS eingesetzt. Bei dieser Mobiltelefon-Technik erfolgt die Kommunikation der Sensoren mit der Emp- fangsstelle durch ein GSM-Modul. Einfache Systeme übertragen per CSD, HSCSD oder SMS. Mit dem Einzug immer intelligenterer Prozessoren in den GSM-Modulen er- folgt die Kommunikation inzwischen oft per GPRS-Protokoll und Internet, was zusätz- lich Kosten einsparen kann.

Der Einsatz dieser Technik hat den Vorteil einer großen, globalen Reichweite. Aller- dings sind lokale Funklöcher im GSM-Netz hinzunehmen, da Mobiltelefone für eine bewegliche Nutzung konstruiert wurden. So ist für eine betriebssichere Arbeit der Aus- führung und dem Aufstellungsort der GSM-Antenne der Empfangsstelle besondere Aufmerksamkeit zu widmen.

Kombination mit einer Fernsteuerung

Hier findet ein Datenverkehr zwischen zwei Stationen statt:

-die steuernde Station kann Messwerte empfangen (downlink)

-die sensortragende Station kann die aus den Messwerten abgeleiteten Kommandos be- folgen (uplink). Der Sensorträger vor Ort ist dabei mit Aktoren ausgestattet, die von ei- nem Bediener aus der Feme aufgrund der gelieferten Sensorinformationen gesteuert werden können. Beispiele hierfür sind Spezialroboter oder mit Kamera und Telemetrie versehene Flugobjekte (Drohnen).

Die Telemetrie wird seit Ende der 1920er Jahre für die Nachrichtenübermittlung aus Wetterballonen verwendet. Sie erlebte einen großen Aufschwung mit der Entwicklung der Großraketen in den 1940er Jahren. Gelenkte Raketen melden ihren Kurs an eine Bodenstation; diese kann Steuersignale zurücksenden.

52. Femwirken Unter Femwirken wird die Fernüberwachung und -Steuerung räumlich entfernter Ob- jekte mittels signalumsetzender Verfahren, von einem oder mehreren Orten aus, ver- standen.

Es werden spezielle Datenübertragungsprotokolle genutzt, um die Prozessdaten sicher über Weitbereichsnetze geringer Bandbreite und Übertragungsqualität zu übertragen. Beispiele sind:

-Fernsteuerung von betriebs- und haustechnischen Anlagen wie Heizung, Küchengerä- ten, Videorekordem

-Kontrolle und Steuerung des Energieverbrauchs (Gaszähler, Stromzähler - siehe auch Rundsteuer- und Funkrundsteuertechnik)

-Steuern von Versorgungsnetzen (Strom, Gas, Wasser, Fernwärme) als Teil der Netz- leittechnik

-Steuern von Straßenverkehrsanlagen: Ampeln, Straßenbeleuchtung, Taumittelsprühan- lagen

-Gefahrenmeldung (Einbruch, Feuer)

-Notruf

Die Fernwirktechnik gliedert sich in zwei Bereiche. Dies sind die Fernwirk- Unterstellengeräte (die im Prozess bzw. prozessnah installiert sind) und die Femwirk- zentralen. Die Femwirkzentralen (Synonyme hiervon sind Prozesskoppelsysteme, Femwirk-Gateways) sind heutzutage prozessfern aufgebaut und werden den Leitsy- stemkomponenten zugerechnet. Fern wirk-Unterstel len und -Zentralen sind über WAN- Verbindungen miteinander gekoppelt.

Solche Dienste sind technisch charakterisiert durch bestimmte Anforderungen an Gerä- te und Übertragungswege: geringe Ausfallwahrscheinlichkeit, geringe Bitfehlerhäufig- keit, schnelle Datenübermittlung, besondere Maßnahmen für Sicherheit und Daten- schutz und/oder Informationsarten. In der Fernwirktechnik werden übertragen: Schalt- und Stellbefehle, Schalterstellungsmeldungen, Kenn- und Warnmeldungen, Messwerte, Zählwerte und/oder sonstige Daten. Ein Femwirkgerät besteht typischerweise aus einer Vielzahl verschiedener Prozessbau- gruppen (Schnittstelle zwischen Prozess- und Systembus. Sie passen die Signalpegel an die Prozessbedingungen an. Ihre Funktion besteht in der Analog/Digital-Umwandlung und der Digital/ Analog-Umwandlung von Informationen, aber auch in der Summierung von Zählimpulsen.) : dem Systembus der Steuereinheit/Zentraleinheit, dem Sende- /Empfangskopf, der die Schnittstelle zur Übertragungstechnik bildet.

Wird ein Femwirkgerät mit mehreren Sende-/Empfangsköpfen ausgestattet, so können auch mehrere Gegenstellen bedient werden. Dazu kann auch über unterschiedliche Fernwirkprotokolle kommuniziert werden.

Es hat in der Vergangenheit mehrfach Versuche gegeben, die Techniken für das Fem- wirken zu vereinheitlichen. Diese Versuche waren zunächst nicht erfolgreich. Durch die gemeinsame Spezifikation der IEC-Protokolle durch mehrere Hersteller bildet sich in- zwischen eine deutliche Standardisierung bei Neuinstallationen heraus. Durch die rela- tiv hohe Lebensdauer von Femwirksystemen beträgt die Lebenszeit der Protokolle etwa 10-20 Jahre, so dass auch weiterhin viele alte Protokolle im Einsatz sind.

Aktuell trifft man z. B. folgende Protokolle:

IEC 60870 mit den Anwendemormen IEC 60870-5-101, IEC 60870-5-104 (aktueller Standard in Europa und Asien)

IEC 61850 weltweit zur Anwendung kommender Standard für Kommunikation in Schaltanlagen und im Energiebereich

DNP3.0 (US-Standard)

FW535/537, SINAUT (Siemens AG),

Modbus RTU (AEG)

Modnet-IF/SEAB-IF (früher AEG, heute OHP GmbH)

TG 065, TG 709, TG 80x (früher L&G, heute Siemens AG)

UNTP (SAE-ELEKTRONIK)

DULZ/DULU (IDS-Gruppe)

Ridat (Rittmeyer AG) ReSyNet (Phoenix Contact)

HST TeleMatic, IP-basiertes Protokoll gemäß DWA-M 207 (HST Systemtechnik GmbH)

MFW-1G (EES - Elektra-Elektronik GmbH & Co Störcontroller KG)

ODP, Modbus-basierendes Protokoll (Videc GmbH)

Produktabhängige Leistungsmerkmale sind zum Beispiel: ereignisgesteuerte Datenüber- tragung, Archivierung anhand von Zeitstempeln, Überwachung und Visualisierung der WAN-Verbindungen und/oder automatisches Aufdaten (Aktualisieren) nach Beseiti- gung von Verbindungsstörungen. Femwirkanlagen nutzen praktisch alle Telekommuni- kationsnetze, die Datenübertragung ermöglichen, so zum Beispiel Standleitungen (Kup- feradem und Glasfaser), Wechselstromtelegrafie, Private Funknetze, Analoges Tele- fonnetz über Modem, Digitales ISDN-Netz, Mobilfunk-Netz (GSM, 900 MHz und 1800 MHz, in Deutschland D-Netz und E-Netz, vor allem GPRS wird hierzu genutzt) und/oder Satellitenkommunikation

Einen ähnlichen Aufgabenbereich haben die Telemetrie und die Telematik; deshalb werden diese Begriffe oft synonym verwendet. Vom BDEW (früher VDEW) wurden die Empfehlungen für Femwirkanlagen in EVUs herausgegeben. Diese befassen sich mit„Planung und Einsatz von Fernwirkanlagen“ sowie den„Technischen Bedingungen für Femwirkanlagen“. Des Weiteren gibt es folgende VDE-Vorschriften: VDE 0160, 0660, 0670, 0800 und 0804.

53. Machine to Machine

Machine-to-Machine (M2M) steht für den automatisierten Informationsaustausch zwi- schen Endgeräten wie Maschinen, Automaten, Fahrzeugen oder Containern untereinan- der oder mit einer zentralen Leitstelle, zunehmend unter Nutzung des Internets und den verschiedenen Zugangsnetzen, wie dem Mobilfimknetz. Eine Anwendung ist die Fern- überwachung, -kontrolle und -Wartung von Maschinen, Anlagen und Systemen, die tra- ditionell als Telemetrie bezeichnet wird. Die M2M-Technologie verknüpft dabei Infor- mations- und Kommunikationstechnik. M2M-Lösungen können in jedem Wirtschaftszweig Arbeitsabläufe rationalisieren und zu Produktivitätssteigungen führen. In der Automaten-Wirtschaft melden sich zum Bei- spiel Verkaufsautomaten selbständig bei einem zentralen Rechner, wenn sie neu be- stückt werden müssen. Regelfahrten des Automatenbetreibers können so vermieden werden. Darüber hinaus kommt es zur Vermeidung von Ausfallzeiten. Die damit ver- bundenen Rationalisierungen der Geschäftsprozesse und die daraus folgenden Kosten- einsparungen bergen für die Industrie - und auch für die Gesellschaft - ein großes Marktpotenzial.

Im Rahmen der Initiative„Informationsgesellschaft Deutschland 2010“ (ID2010) und des Forschungsforderungsprogramms„IKT 2020“ werden für das Internet der Dinge und die M2M-Kommunikation ein besonderer Forschungsbedarf und signifikante Chancen für die Wirtschaft gesehen.

Als vielversprechende Einsatzfelder werden die folgenden Märkte angesehen:

Transportwesen, Flottenmanagement/Telematik/Verkehrssysteme, Gebäudetechnik, Versorgungsuntemehmen, Energietechnik, Verkaufsautomaten/Vending, Sicherheits- technik/Alarmsysteme/Überwachung, Gesundheitswesen/Medizintechnik, Produkti- on/Automation und/oder Elektronische Bezahlung/Transaktion

M2M-Systeme werden in erster Linie durch drei Grundkomponenten charakterisiert:

-Datenendpunkt (Data End Point = DEP) - z. B. ein zu überwachender Verkaufsauto- mat

-Kommunikationsnetze

Mobilfunk (z. B.: GSM, SMS, GPRS, EDGE, UMTS, HSPA, LTE)

Kabelgebunden (z. B.: Festnetz, ISDN, DSL, Ethernet)

Sonstige (z. B.: Bluetooth, RFID, ZigBee, W-LAN, Satellitenfunk, Datenfunk, Wirel- essHART) -Datenintegrationspunkt (Data Integration Point = DIP) - z. B. ein Server, der die Füll- stände aller Verkaufsautomaten überwacht

Bei dem Datenendpunkt (DEP) handelt es sich um ein kompaktes Mikrorechnersystem - einen Sender, der mit einem Endgerät verknüpft ist. Innerhalb eines geschlossenen Netzwerkes kann es zahlreiche Datenendpunkte und die zugehörigen Endgeräte bzw. Maschinen geben. Mit Hilfe der DEP tauschen die Maschinen über ein Kommunikati- onsnetzwerk Daten mit dem Datenintegrationspunkt (DIP) - dem Empfänger - aus, der mit einer zentralen Leitstelle verbunden ist. Der DIP ist im Gegensatz zu den zahlreich vorhandenen DEPs meist nur einmal in einer M2M-Applikation zu finden.

Dabei fließen die Informationen nicht ausschließlich in Richtung der Zentrale. So ist auch die Kommunikation zwischen den einzelnen DEPs möglich. Die gesamte Daten- übertragung kann dabei etwa über ein Mobilfunknetz erfolgen. Beispielsweise sendet eine Anlage eine Fehlermeldung direkt an eine ausgewählte Gruppe von Ingenieuren mittels SMS.

M2M-Lösungen bestehen grundsätzlich aus mehreren voneinander abhängigen Kom- ponenten, die Kommunikation zwischen Maschinen ermöglichen. Dazu gehören vor al- lem:

-Hardwarekomponenten (z. B.: Modems, Industrie-PCs, Server)

-Mobilfunk- und Festnetzdienstleistungen

-Systemintegrations- und Beratungsdienstleistungen

-Applikationen (z. B.: Serverapplikationen,„Point to Point“-Applikationen)

-Eine enge Zusammenarbeit zwischen Lösungspartner, Netzbetreiber und Kunden ist der Schlüssel zu einer erfolgreichen Planung und Umsetzung von M2M-Lösungen. Zu- dem ist der Erfolg einer M2M-Lösung auch von folgenden Faktoren abhängig:

-Mehrwert (Kosten-Nutzenanalyse - Business Case)

-Gesellschaftsfähigkeit (Akzeptanz Datenschutz) -Adäquate Hardware (Billige Hardware kann unter Umständen höhere Kosten erzeugen -als teurere Hardware , Total Cost of Ownership)

-Adäquate Kommunikation

-Netze (Heute verstärkt Mobilfunknetze ® GPRS, EDGE, UMTS, HSPA, LTE)

-Tarife (insbesondere Mobilfunktarife)

-Protokolle (Die Zukunft ist IP ® weites Einsatzspektrum und Investitionssicherheit) -Vollständige Integration in bestehende Arbeitsabläufe (Automatisierung— * Nutzen)

54. GSM-Ortung

GSM-Ortung bezeichnet die Ortsbestimmung eines eingeschalteten und in ein Funknetz eingebuchten, auf der Basis von Global System for Mobile Communications (GSM) be- triebenen Endgerätes (Mobiltelefon) durch das Mobilfunknetz.

Die Position eines Mobiltelefons ist für den Mobilfunkbetreiber durch die permanente Anmeldung am Netz in gewissen Genauigkeitsgrenzen bekannt. Im Bereitschaftsbetrieb ist sie zumindest durch die Zuordnung zur aktuell verwendeten Location Area gegeben. Diese Information wird bei Bewegung der Mobilstation (Mobiltelefon) regelmäßig ak- tualisiert und in einer Datenbank, dem Home Location Register (HLR), gespeichert. Im Gesprächsbetrieb oder bei Datenverkehr (SMS, MMS) kann die Position eines Mobilte- lefons mit bekannter Rufnummer (SIM-Karte) genauer bestimmt werden, da hier zu- mindest die Cell-ID der aktiven Basisstation (Mobilfunksender) bekannt ist. Hierbei gibt es mehrere Verfeinerungen.

GSM-Ortung stellt, je nach Anwendungsfall, eine einfache Alternative zum Global Po- sitioning System (GPS) dar, da für das Mobilgerät keine weitere Infrastruktur benötigt wird. Die GSM-Ortung ist jedoch, im Vergleich zur Standortbestimmung mittels GPS, meist ungenauer, da die zur Standortbestimmung herangezogenen Signale systembe- dingte Toleranzen aufweisen und, bedingt durch die benutzte Infrastruktur, Faktoren wie stark wechselnde Ausbreitungsbedingungen, Topografie des zugrundeliegenden Mobilfimknetzes, geografische Gegebenheiten und Ausstattung des benutzten Endge- räts auf das Ergebnis Einfluss nehmen. Eine GSM-Ortung kann mit verschiedenen Messverfahren erfolgen, wobei sich die zur Verfügung stehenden Möglichkeiten in Bezug auf die Genauigkeit, den notwendigen Hardwareaufwand im Mobilfunknetz und den Anforderungen an das Endgerät unter- scheiden und ergänzen.

Methode ohne weitere Zusatzausrüstung, weder netz- noch geräteseitig

Cell ID oder Cell of Origin: Dieses Verfahren ist nicht bei der 3GPP spezifiziert, wurde und wird jedoch von Netzbetreibem zur groben Positionsbestimmung verwendet. Bei diesem Verfahren wird lediglich die Zelle, in der sich das Endgerät zum Zeitpunkt der Messung aufhält, ermittelt und deren Position verwendet. Es sind keinerlei Änderungen auf Netz- oder Endgeräteseite notwendig, allerdings ist die erzielte Genauigkeit niedrig und steht in direktem Zusammenhang zur Dichte der Basisstationen.

Methoden mit netzseitiger, aber ohne geräteseitige Zusatzausrüstung

Timing Advance (TA): Bei diesem Verfahren wird die Position des Endgeräts anhand der Position der benutzten Funkzelle und des Parameters Timing Advance bestimmt, der die Laufzeit des Funksignals zwischen Basisstation und Mobilgerät angibt (hin und zurück). Da die Laufzeit (Timing Advance) jedoch systembedingt nur in Stufen von 3,7 ps übermittelt wird, kann auch die Entfernung des Mobilgerätes von der Basisstation nur in Schritten von ca. 550 m ermittelt werden (Lichtgeschwindigkeit x 3,7 ps / 2). Uplink Time Difference of Arrival (U-TDOA): Bei diesem Verfahren wird die Position des Endgeräts anhand der Laufzeiten der Signale des Endgeräts zu bestimmten Stellen im Mobilfunknetz, den sogenannten Location Measurement Units (LMU), ermittelt. Methoden mit netz- und geräteseitiger Zusatzausrüstung

Enhanced Observed Time Difference (E-OTD): Bei diesem Verfahren wird die Position des Endgeräts anhand von Laufzeitmessungen von mehreren benachbarten Basisstatio- nen, die das Endgerät durchführt, ermittelt. Global Navigation Satellite System (GNSS): Bei diesem Verfahren wird die Position des Endgeräts vom Endgerät selbst ermitelt und an das Mobilfunknetz weitergeleitet. Das Endgerät bestimmt seine Position mithilfe eines beliebigen satellitengestützten Sy- stems zur Positionsbestimmung (GPS, Galileo, GLONASS, QZSS).

Eine Sonderform dieses Verfahrens ist Assisted GNSS (A-GNSS), bei dem die zur Po- sitionsbestimmung notwendigen Hilfsdaten vom Mobilfunknetz zur Verfügung gestellt werden. Bei der Bezeichnung dieses Verfahrens wird normalerweise anstatt der allge- meinen Bezeichnung GNSS die Bezeichnung des im jeweiligen Fall verwendeten Satel- litennavigationssystems benutzt, also etwa A-GPS.

Die Genauigkeit der ermittelten Positionen liegt zwischen mehreren Kilometern bei Verwendung von Cell ID unter ungünstigen Umständen, 25 m für E-OTD und U- TDOA und unter 5 m bei Verwendung von GNSS.

Standortbezogene Dienste: Dem Benutzer werden ortsabhängige Informationen zur Verfügung gestellt, beispielsweise Angaben zur nächstgelegenen Apotheke, zum Kino- programm oder zu nahegelegenen Restaurants.

Ortung gestohlener oder verlorener Endgeräte: Trotz der systembedingten Ungenauig- keiten können gestohlene oder verlorene Endgeräte leichter wiedergefunden werden. Standortermitlung und -Verfolgung von Gegenständen und Personen: Durch kleine und leichte GSM-Endgeräte (ohne Telefoniefunktion) kann der Standort von Gegenständen oder Personen festgestellt werden. So können Eltern z. B. den Aufenthaltsort ihrer Kin- der in Erfahrung bringen oder der Standort eines gestohlenen Fahrrads oder Kraftfahr- zeugs kann ermitelt werden. Für Kunden von 02 ist eine Handyortung kostenlos mög- lich, sofern der im Kundenbereich der Webseite platzierte Handyfmder -Dienst genutzt wird. Die automatische Überwachung von Personen mitels deren Mobilgerät, bei- spielsweise eines Ehepartners ohne dessen Zustimmung, ist ein Verstoß gegen deren in- formationeile Selbstbestimmung.

Flotenmanagement für Transportunternehmen Standortfeststellung nach Notrufen: Bei neueren Smartphones wird der Standort unter anderem mittels AML bereits per Satellit erfasst und über das Mobilfunknetz an die Leitstelle übertragen. Sollten die Koordinaten nicht automatisch eingehen, kann der Standort des Anrufers auf Veranlassung der Rettungsdienste ermittelt werden. Die Verwendung für Rettungsdienste ermöglicht das schnelle Auffinden von Unfallopfern, da diese oft ihren Aufenthaltsort nicht genau kennen oder falsch angeben.

Polizeiliche Ermittlungen: Im Zuge polizeilicher Ermittlungen aufgrund schwerer Straf- taten oder bei Gefahr im Verzug kann, nach vorheriger richterlicher Anordnung, die Or- tung eines Endgeräts durchgefuhrt werden. Ein Sonderfall ist die stille SMS, mit der das Netz zur genauen Ortung eines Mobiltelefons ohne Kenntnisnahme eines Verbindungs- aufbaus durch den Nutzer gezwungen werden kann. Dieses Verfahren wird in der Straf- verfolgung als Hilfsmittel der Polizei eingesetzt, mit Hinweis auf„Gefahr im Verzug“ erfolgt dies zum Teil auch ohne richterliche Prüfung. Diese Praxis ist jedoch umstritten. Insgesamt wurden nach Angaben von Bundesbehörden in den vergangenen Jahren in Deutschland über 1,7 Millionen stille SMS zur Ortung verdächtiger Personen versandt. In Österreich spricht die Polizei 2015 von "Handyortungsgerät" um einen abgängigen Wanderer zu suchen.

Weitere Anwendungen:

-Der deutsche Zoll nutzt sein Patras-System zur Ortung von verdächtigen Personen. -IMEI Seriennummer zur eindeutigen Identifizierung von Mobilfunk -Endgeräten -IMSI zur eindeutigen Identifizierung von Netzteilnehmem in GSM- und UMTS- Mobilfunknetzen

-IMSI-Catcher zum Abhören von Mobilfunk-Kunden

-SIM-Karte zur Identifikation des Nutzers im Mobilfunknetz

-Stealth Ping - auch Silent SMS oder Stille SMS zur Ortung von Handys bis zur Erstel- lung von Bewegungsprofilen

-Cell-ID ist ein Verfahren der mobilen Positionsbestimmung im GSM-Mobilfunknetz -Patras (Zollsoftware) - geheimes Ortungssystem des deutschen Zolls, betrieben in Ko- operation mit Mobilfunk-Netzbetreibem, genaue Funktionsweise ist nicht bekannt 55. Programmierschnittstelle

Standardisierte Programmierschnittstellen (APIs) über unterschiedliche Betriebssyste- me sorgen für Quelltextkompatibilität, d. h. Quelltext kann ohne Anpassungen für die jeweiligen Systeme erfolgreich kompiliert werden.

Eine Programmierschnittstelle (auch Anwendungsschnittstelle, genauer Schnittstelle zur Programmierung von Anwendungen), häufig nur kurz API genannt (von englisch appli- cation programming interface, wörtlich , Anwendungsprogrammierschnittstelle 1 ), ist ein Programmteil, der von einem Softwaresystem anderen Programmen zur Anbindung an das System zur Verfügung gestellt wird. Im Gegensatz zu einer Binärschnittstelle (ABI) definiert eine Programmierschnittstelle nur die Programmanbindung auf Quelltext- Ebene. Zur Bereitstellung solch einer Schnittstelle gehört meist die detaillierte Doku- mentation der Schnittstellen-Funktionen mit ihren Parametern auf Papier oder als elek- tronisches Dokument.

Neben dem Zugriff auf Datenbanken oder Hardware wie Festplatte oder Grafikkarte kann eine Programmierschnittstelle auch das Erstellen von Komponenten der grafischen Benutzeroberfläche ermöglichen oder vereinfachen. Zum Beispiel ermöglicht die Pro- grammierschnittstelle Windows Application Programming Interface des Betriebssy- stems Windows, dass externe Firmen überhaupt erst Software für dieses Betriebssystem entwickeln können.

Heutzutage stellen auch viele Online-Dienste Programmierschnittstellen zur Verfügung; diese heißen dann Webservice. Im weiteren Sinne wird die Schnittstelle jeder Biblio- thek (engl library) als Programmierschnittstelle bezeichnet. Zu unterscheiden ist diese Art funktionaler Programmierschnittstellen von den vielen anderen Schnittstellen, die in der Programmierung angewendet werden - zum Beispiel die Parameter, die beim Auf- ruf von Unterprogrammen vereinbart und übergeben werden.

Programmierschnittstellen lassen sich in folgende Typklassen einteilen:

-funktionsorientiert (z. B. Dynamic Link Library)

-dateiorientiert (z. B. Gerätedateien unter Unix)

-objektorientiert (z. B. ActiveX-DLLs)

-protokollorientiert (z. B. FTP)

Funktionsorientierte Programmierschnittstellen kennen nur Funktionen mit oder ohne Rückgabewert als Mittel der Kommunikation. Dabei wird fast immer das Konzept der Handles verwendet. Man ruft eine Funktion auf und bekommt ein Handle zurück. Mit diesem Handle lassen sich weitere Funktionen aufrufen, bis abschließend das Handle wieder geschlossen werden muss.

Dateiorientierte Programmierschnittstellen werden über die normalen Dateisystemauf- rufe open, read, write und close angesprochen. Sollen Daten an ein Objekt gesendet werden, werden diese mit write geschrieben, sollen welche empfangen werden, werden sie mit read gelesen. Unter UNIX ist dieses Prinzip bei der Ansteuerung von Gerätetrei- bern weit verbreitet.

Objektorientierte Programmierschnittstellen verwenden Schnittstellenzeiger und sind damit deutlich flexibler als die funktionsorientierten Programmierschnittstellen. Häufig wird eine Typbibliothek mitgegeben.

Protokollorientierte Programmierschnittstellen sind unabhängig vom Betriebssystem und der Hardware. Allerdings muss das Protokoll stets neu implementiert werden. Um diesen Aufwand zu minimieren, wird die protokollorientierte Schnittstelle durch eine funktions- oder interfaceorientierte Schnittstelle gekapselt. Man kann hier weiterhin zwischen allgemeinen (z. B. SOAP) und anwendungsspezifischen (z. B. SMTP)- Protokollen unterscheiden. Bei Programmierschnitstellen für Anwendungssoftware wird darüber hinaus auch nach Entwicklungsstufe unterschieden. Ausgangspunkt dieser Unterscheidung ist die Beob- achtung, dass sich Operationen der Programmierschnitstelle oft erst im Laufe der Zeit herausentwickeln. Von großer Wichtigkeit ist dabei, ob in früheren Versionen der Pro- grammierschnitstelle verfügbare Operationen auch in allen Folgeversion noch vorhan- den sind und auch dieselbe Bedeutung haben. Bei einer stabilen Schnitstelle braucht die Anwendung nicht mehr geändert zu werden. Unterschieden wird zwischen sich entwickelnden (engl evolving) und stabilen Programmierschnitstellen (engl stable API). Als Refactoring wird die Fortentwicklung einer Programmierschnitstelle be- zeichnet, die keine Änderungen in den Anwenderprogrammen nach sich zieht.

Das Vorhandensein einer gut dokumentierten Programmierschnittstelle (API) kann ein erheblicher Wetbewerbsvorteil für ein Software- oder ein die Software enthaltendes Hardware-Produkt sein - da auf diese Weise andere Softwarefirmen oder freiberufliche Programmierer in die Lage versetzt werden, zusätzliche Software für dieses System zu erstellen. Mit dem Angebot zusätzlicher Programme von Dritanbietem steigt wiederum die Atraktivität des Ausgangssystems, etwa eines Computer-Betriebssystems, einer Spielkonsole oder einer Smartphone-Familie. Die Geschäftspolitik bezüglich dieser Schnitstelle kann damit über den kommerziellen Erfolg einer Software und gegebenen- falls auch der zugehörigen Hardware entscheiden. So verlangen manche Software - Anbieter erhebliche Geldbeträge für die zugehörige, notwendige Dokumentation, was eine Eintritsbarriere für interessierte Programmierer darstellt. Auch kann vorgesehen sein, dass auf die API nur mit einem teuer zu erwerbenden Software- Entwicklungssystem zugegriffen werden kann.

Ein weiterer Faktor für den Erfolg kann die oben erwähnte Langzeit-Stabilität der API sein, denn bei häufigen Änderungen ist auch der Programmierer einer Zusatzanwen- dung jedes Mal zur Änderung seiner Software gezwungen, damit sie weiter mit dem Basissystem funktioniert. Dies kann erheblichen Arbeitsaufwand und damit Kosten verursachen, was die Entwicklung kommerziell weniger atraktiv macht. Die Entwicklungsumgebung Xcode, mit der auf die API des Smartphone- Betriebssystems Apple iOS zugegriffen werden kann, steht zwar als kostenloser Down- load bereit, aber nur für Mac-Computer von Apple. Zudem müssen Entwickler ein Ge- heimhaltungsabkommen unterzeichnen und einen Mitgliedsbeitrag entrichten, was als Hemmnis bewertet wird - zumal Apple auf dem Markt für Smartphones bzw. Mobile Apps durch den großen Erfolg des Android-Betriebssystems mit starker Konkurrenz konfrontiert ist.

Für die Betriebssystem-Familie Unix existiert der von der IEEE festgelegte POSIX- Standard. Die Preise für die Dokumentation dieser API sind sehr hoch, und die Veröf- fentlichung ist durch Urheberrecht untersagt. In neuerer Zeit ist deshalb eine Tendenz zur Single UNIX Specification der Open Group zu verzeichnen. Diese Standards sind offen, im Internet frei verfügbar und jedermann kann Vorschläge dazu einreichen.

56. Internet der Dinge

Das Internet der Dinge (IdD) (auch:„Allesnetz“; englisch Internet of Things, Kurzform: IoT) ist ein Sammelbegriff für Technologien einer globalen Infrastruktur der Informati- onsgesellschaften, die es ermöglicht, physische und virtuelle Gegenstände miteinander zu vernetzen und sie durch Informations- und Kommunikationstechniken Zusammenar- beiten zu lassen.

Mit Technologien des„Internets der Dinge“ implementierte Funktionen erlauben die In- teraktion zwischen Mensch und hierüber vernetzten beliebigen elektronischen Systemen sowie zwischen den Systemen an sich. Sie können darüber hinaus auch den Menschen bei seinen Tätigkeiten unterstützen. Die immer kleineren eingebetteten Computer sollen Menschen unterstützen, ohne abzulenken oder überhaupt aufzufallen. So werden z. B. miniaturisierte Computer, sogenannte Wearables, mit unterschiedlichen Sensoren direkt in Kleidungsstücke eingearbeitet. In seinem Aufsatz von 1991 The Computer for the 21st Century sprach Mark Weiser unter dem Begriff„Ubiquitous Computing“ zum ersten Mal von dieser Vision.

Das Internet der Dinge bezeichnet die Verknüpfung eindeutig identifizierbarer physi- scher Objekte (things) mit einer virtuellen Repräsentation in einer Internet-ähnlichen Struktur. Es besteht nicht mehr nur aus menschlichen Teilnehmern, sondern auch aus Dingen. Der Begriff„Internet of Things“ geht auf Kevin Ashton zurück, der ihn 1999 erstmals verwendete. Bekannt wurde das Internet der Dinge durch die Aktivitäten der „Auto-ID Labs“.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels Strichcode oder 2D-Code erfolgen. Bauteile wie Sensoren und Aktoren erwei- tern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Ak- tionen. Erweiterte Definitionen zum Internet der Dinge betonen die Zugehörigkeit zum zukünftigen Internet (auch engl.: Future Internet) sowie die Abgrenzung von verwand- ten Forschungsthemen.

Ziel des Internets der Dinge ist es, automatisch relevante Informationen aus der realen Welt zu erfassen, miteinander zu verknüpfen und im Netzwerk verfügbar zu machen. Dieser Informationsbedarf besteht, weil in der realen Welt Dinge einen bestimmten Zu- stand haben (z. B.„Luft ist kalt“,„Druckertoner ist voll“), dieser Zustand im Netzwerk jedoch nicht verfügbar ist. Ziel ist also, dass viele reale Dinge die eigenen Zustandsin- formationen für die Weiterverarbeitung im Netzwerk zur Verfügung stellen. Das Netz- werk kann lokal, als VPN in sich geschlossen oder auch mit dem Internet über Firewalls verbunden sein. Solche Zustandsinformationen können Informationen über die aktuelle Nutzung, über Alterung, aber auch über besondere Umweltbedingungen an dem Ort des Teilnehmers sein.

Solche Informationen können sowohl zur Verbesserung der Nutzbarkeit des Teilneh- mers selbst ausgewertet werden (Früherkennung von Wartung oder Austausch etc.), als auch zur Verbesserung der Situation des umgebenden Bereiches (so kann z. B. die Re- duktion des Energieaufwandes zur Heizung oder Kühlung an eine Vielzahl von Infor- mationen im ganzen Raum gebunden werden, und so besser wirken als in der Regelin- stallation, die mit einem einzelnen Sensor [an häufig ungeeigneter Stelle montiert] aus- kommen muss). In einem weiteren Schritt können digitale Services als Teil des IoT die Parametrierung von Geräten so erleichtern und verbessern, dass sie auch dort geschieht, wo sie heute aus Kostengründen nicht stattfindet. Wichtige Schritte zu diesem Ziel sind die Standardisierung der Komponenten und Dienste im Internet der Dinge; die Einfüh- rung einer einfach zugänglichen, sicheren und allgemeinen Netzwerkanbindung, geeig- net für alle Geräte mit eingebautem Mikrocontroller; die Reduktion der Kosten für in das IoT integrierte Teilnehmer (Gerätekosten, Inbetriebnahmekosten, Anschlusskosten etc.); die Entwicklung von kostenarmen, automatisierten (bis hin zu autonomen) digita- len Services im Netzwerk, die den zusätzlichen Nutzen der Vernetzung realisieren.

Das Internet der Dinge unterscheidet sich vom Konzept der Selbststeuerung logisti- scher Prozesse . Selbststeuemde Objekte benötigen nicht zwangsläufig Internet -ähnliche vernetzte Strukturen. Dennoch lassen sich Synergien hersteilen, sodass zumindest in der Forschung beide Konzepte gerne verknüpft werden. Weiterhin gibt es Überschneidun- gen mit Themenfeldem wie Ubiquitous Computing, Pervasive Computing, Industrie 4.0, Drahtlose Sensometzwerke, dem Internet Protocol, Kommunikationstechnologien, cyber-physischen Systemen, Eingebetteten Systemen, Web2.0-Anwendungen, dem In- ternet (der Menschen) und dem„Intranet“ bzw.„Extranet der Dinge“.

Gegenüber den dedizierten Netzwerken der Automationstechnik, welche sich an der für die Lösung der Aufgabe minimalen Ausrüstung orientiert, verfolgt das Konzept des In- ternets der Dinge den Ansatz, Information so breit wie möglich zur Verfügung zu stel- len, damit die Nutzung dieser Information auch für Lösungen jenseits der heute defi- nierten Zielsetzung möglich wird.

Sollen lediglich Informationen von den physischen Repräsentationen der Akteure im Netzwerk abgerufen werden, reicht eine Identifikation beispielsweise mittels RFID oder QR-Code aus. Ein zentrales System kann so die für den Nutzer relevanten Daten aufge- arbeitet zur Verfügung stellen, wie es beispielsweise bei der Paketverfolgung im Inter- net der Fall ist.

Sollen die Akteure allerdings auch selbst Informationen verarbeiten (beispielsweise bei einem Messsystem für Umweltwerte innerhalb einer Stadt), müssen sie mit datenverar- beitender Hardware ausgerüstet werden. Die Anforderungen an solche Hardware sind hohe Zuverlässigkeit und damit einhergehend ein geringer Wartungsaufwand, da eine hohe Ausfallrate Wartungsarbeiten an sehr vielen Geräten, die mitunter räumlich weit auseinander liegen oder schwer zu erreichen sind, nötig macht. Zusätzlich sollte der Energieverbrauch sehr niedrig sein, da die Hardware meistens rund um die Uhr läuft. Ebenfalls müssen die Anschaffungskosten gering sein, um möglichst viele physische Entitäten ausrüsten zu können. Integrierte Lösungen wie zum Beispiel ein System-on-a- Chip erfüllen diese Anforderungen.

Softwareseitig sollte ein Betriebssystem mit einem extrem niedrigen Speicherverbrauch verwendet werden, das einen Netzwerkstack zur Kommunikation zur Verfügung stellt. Projekte wie Contiki bieten diese Vorteile und sind auf vielen handelsüblichen Mikro- controllerarchitekturen lauffahig. Weitere IoT Betriebssysteme sind: Windows 10 , IoT oder Android Things.

Heute vorhandene Technologievarianten für den IoT-Anschluss eines Geräts unterteilen sich in Hardware-Komponenten (wie COM Controller-Chip oder Smart Modules), Pro- tokoll-Stacks (u. a. für Basisprotokolle des Internets sowie IoT -spezifische Middleware) und Cloud-basierte IoT-Plattformen zur Bildung virtueller Gerätenetze.

Die Internationale Energieagentur ermittelte in einer Studie, dass Geräte aus dem Berei- che Internet der Dinge 2013 rund 616 Terawattstunden (TWh) an Energie verbraucht hätten, von denen etwa 400 TWh verschwendet worden seien. Die Steuersysteme mit ihrer permanenten Intemetverbindung würden demnach selbst die Energie verbrauchen, die sie zuvor durch intelligentes Energiemanagement eingespart hätten. Da die„Dinge“ Daten erfassen, speichern und untereinander austauschen, sammeln sie auch Daten über ihre Nutzer und Anwender. Diese können interessant flir Wirtschafts- Unternehmen, Staaten oder Organisationen sein, sodass sie einen Zugriff darauf anstre- ben könnten. Deren Interessen stimmen jedoch oft nicht mit denen der Nutzer überein. Daher ist die Wahrung der Souveränität über das Persönlichkeits- oder Kundenprofil der Nutzer ein entscheidendes Anliegen des Datenschutzes.

Die Sicherungsmechanismen im Umfeld des Internets der Dinge sind keineswegs ex- klusive Mechanismen, die nur in diesem Bereich vorzufinden sind. Es handelt sich eher um die Anwendung verschiedener Maßnahmen auf der Software- und Netzwerkebene, um Informationssicherheit zu gewährleisten. Die Schutzmaßnahmen können Zugriffe von außen auf die eingebundenen Geräte verhindern.

Eine generelle Schutzmaßnahme ist zum Beispiel die Wahl eines sicheren Passworts. Das Bundesamt für Sicherheit in der Informationstechnik empfiehlt die UPnP-Funktion bei Routern zu deaktivieren, um zu verhindern, dass Geräte im Rahmen von Botnets für Denial of Service-Attacken missbraucht werden können.

Um Zugriffe von außerhalb zu verhindern, gibt es verschiedene Möglichkeiten, zum Beispiel den offenen Standard Trusted Network Connect und Mutual Authentication: Mutual Authentication: In einer Netzwerkumgebung können sich Geräte untereinander mit Zertifikaten authentifizieren und somit eine vertrauenswürdige Kommunikation gewährleisten. Dies wird durch eine hybride Verschlüsselung und durch Zertifikate rea- lisiert.

Trusted Network Connect: Neben der Authentifizierung unter Geräten ist es ebenfalls möglich, alle Zugriffe innerhalb eines Netzwerks zu analysieren und somit die Sicher- heit zu erhöhen. Dies ist ein offener Standard, der von der Trusted Network Group ent- wickelt wurde. Dafür werden zwei Instanzen implementiert: Der„Policy Enforcement Point“ (PEP) und der„Policy Decision Point“ (PDP). Der PEP legt die Richtlinien für Zugänge zum Netzwerk fest und kann gegebenenfalls Nutzern Zugriffsrechte entziehen und diese aus dem Netzwerk ausschließen. Je nach der Art der Authentifizierung des Nutzers darf dieser Zugriff auf Geräte, Server und Daten haben. Der PDP trifft die Au- torisierungsentscheidungen für sich und für andere Systemeinheiten, wie zum Beispiel für den PEP. Möchte ein Nutzer eine Ressource des Netzwerks nutzen, sendet der PEP dessen Nutzerattribute und den gewünschten Nutzerzugriff über das IF-PEP -Protokoll (RFC 5792 PA-TNC) zum PDP. Dieser entscheidet anhand der Nutzerattribute, ob der Nutzer berechtigt ist oder nicht, und sendet dies dem PEP. Der PEP wird nun nach fest- gelegten Regeln den Zugriff erlauben, verbieten oder den Nutzer sperren.

In der Anwendung reicht oft der Einsatz weniger technischer Komponenten und Funk- tionen im Internet der Dinge aus. Paketverfolgung über das Internet - Paketdienstleister bieten dem Paketempfänger die Möglichkeit, seine Sendung im Transportprozess zu verfolgen. Hierzu wird an den jeweiligen Transportstationen über Strichcodes oder 2D- Codes eine eindeutige Identifikation der Sendung vorgenommen und der aktuelle Status automatisch an eine Zentrale übertragen. Dieser Status kann vom Paketempfänger über eine entsprechende Webseite abgelesen werden.

Nachbestellung von Druckerpatronen - Der Drucker identifiziert seine Druckerpatronen mittels Chiptechnologie und überwacht so deren Füllstand. Unterschreitet der Füllstand eine vordefinierte Grenze, fordert der Drucker den Anwender zur Nachbestellung über die Herstellerwebseite.

In beiden Beispielen erfolgen eine eindeutige Identifikation und die Verknüpfung zu ei- ner entsprechenden Intemetseite, außerdem ist jeweils die menschliche Interaktion not- wendig. Das Internet der Dinge soll jedoch ebenso die direkte rechnergestützte Informa- tionsverarbeitung ermöglichen. Komplexere Anwendungen beinhalten zusätzlich Inter- net-basierte Verzeichnisdienste sowie die Wahlmöglichkeit zwischen unterschiedlichen Diensten. Im elektronischen Handel gibt es auch die Möglichkeit, Bestellungen manuell etwa mit- tels Dash-Button bei Amazon.com auszulösen. Daneben betreiben unter anderem Die Schweizerische Post wie auch Valora ähnliche Systeme mit einer Bestellfunktion.

Weiter eignet sich das Internet der Dinge auch für Umweltbeobachtungen, wie z. B. zur Messung der Luftqualität. In der Schweiz wird so die Kohlenstoffdioxid-Konzentration an 300 Messstationen gemessen. Die Daten des Sensometzes werden dabei über das Low Power Wide Area Network der Swisscom in eine Cloud übertragen.

Das Internet der Dinge ist die Basis für Anwendungen in einer "Smart City". Beispiels- weise entsteht im Abwasserkanal das Gas H2S. Neben seinem unangenehmen Geruch reizt das Gas die Schleimhäute, sorgt für Korrosion und greift den Beton an. Teure Sa- nierungsarbeiten des Kanals und Aufgrabungen sind die Folge. Das Internet der Dinge ermöglicht es die Konzentration des Gases in der Umgebungsluft laufend zu messen und automatisiert mittels Dosiersteuerungen Gegenmaßnahmen einzuleiten.

Ein weiteres Beispiel ist das EPCglobal-Netzwerk. Allerdings beschränkt sich die EPCglobal-Architektur bisher auf logistische Anwendungen und stellt somit nur eine Untermenge der Zukunftsvision für das Internet der Dinge dar. RFID dient als Basi- stechnologie im EPCglobal-Netzwerk, mit der sich die reale Welt in die Informations- welt verlängern lässt, zum Beispiel anhand einer weltweit eindeutigen Identität wie dem Electronic Product Code. Diese Verschmelzung ermöglicht nicht nur das vereinfachte Management von bestehenden Geschäftsprozessen, sondern erlaubt auch die Entste- hung von komplett neuen Märkten und Geschäftsmodellen. Mit dem EPCglobal und weiteren standardisierten Komponenten steht bereits heute ein Großteil der entspre- chenden Infrastruktur bereit. Die Basisdienste dieser Infrastruktur bauen dabei funktio- nal auf den Grundlagen des Internets auf.

Das folgende Beispiel soll das Potenzial für künftige Anwendungen deutlich machen. Die Einstellungen eines Bürostuhls (beispielsweise die Position und Federwirkung der Rückenstütze) haben auf die Gesundheit deutlichen Einfluss. Derzeit wird die Anpas- sung des Stuhls an die Körpereigenschaften des Nutzers vom Nutzer selbst (und weit- gehend ohne Fachwissen, daher häufig auch unvorteilhaft) vorgenommen. Ein Experte, der die Einstellungen des Stuhls regelmäßig an die Bedürfnisse des Nutzers anpassen könnte, ist kostspielig. Wird der Stuhl zum Teilnehmer im Internet der Dinge, so ließen sich Messwerte von Sensoren im Stuhl erfassen, vom Hersteller im Rahmen eines ko- stenarmen Services über das Netzwerk auswerten damit verbesserte Einstellungen am Stuhl (ggf. wieder über das Netz) vornehmen. Die notwendige Betriebsenergie dafür kann aus dem Lastwechsel gewonnen werden.

Die Forschung zum Thema wird seit Jahren von verschiedenen Einrichtungen betrie- ben. Dabei ist eine stetige thematische Erweiterung der ursprünglichen Vision der Auto- ID Labs zu beobachten. Auf europäischer und deutscher Ebene wurde und wird eine Vielzahl von Forschungsprojekten zum Internet der Dinge gefordert, unter anderem auch zur Verknüpfung von physischen Objekten mit digitalen Gedächtnissen.

57. eSIM

Die eSIM ist ein von der GSM Association standardisiertes Verfahren zur sicheren Ein- bettung von Teilnehmerinformationen in einem speziellen Modul eines mobilen Endge- rätes für Telekommunikation. Sie soll die klassische SIM-Karte in Zukunft ersetzen. Das Akronym„eSIM“ wird als Abkürzung für embedded subscriber identity module (engl für„eingebautes Teilnehmer-Identitätsmodul“) interpretiert.

Die eSIM unterscheidet sich hauptsächlich in der Bereitstellung durch die Mobilfunk- netzbetreiber von der bereits etablierten, klassischen SIM-Karte. Wurden diese in der Vergangenheit entweder in einem Geschäft verkauft oder per Post verschickt, kann ein Kunde mit Hilfe der eSIM jederzeit online Kunde eines Mobilfunkanbieters werden und sein Mobiltelefon oder sonstiges Endgerät sofort zum Einsatz bringen, so der Anbieter dies unterstützt. Einmal in das mobile Endgerät geladen, bestehen keine wesentlichen Unterschiede zur Verwendung einer physischen SIM-Karte. Für Hersteller kann in Zukunft die Aufnahmemechanik der SIM-Karte komplett entfal- len. Die eSIM ist elektrisch kompatibel mit 2FF- und 3FF-Karten, sie verwendet das SON-8-Format und ist für M2M-Anwendungen (Machine-to-Machine-Anwendungen) konzipiert.

In Deutschland wird die eSIM von den Netzbetreibem Telekom, Vodafone und Tele- fönica Deutschland unterstützt und angeboten. Zur Aktivierung einer eSIM in einem Gerät wird allerdings eine bereits vorhandene Internetverbindung (z. B. über WLAN) benötigt.

Die erste Version der eSIM-Architektur-Spezifikation wurde am 23. Dezember 2015 veröffentlicht. Das erste Gerät, welches über den eSIM-Standard mit einer Teilnehmer- kennung ausgestattet werden konnte, war die Smartwatch Samsung Gear S2 in ihrer 3G-Version vom Hersteller Samsung. Sie wurde im Vorfeld der IFA 2015 vom Herstel- ler angekündigt und auf der Messe vorgestellt.

2018 hat Google die Modelle Pixel 3 3XL sowie Apple die Modelle iPhone XS, XS Max und XR mit einer Unterstützung für die eSIM ausgestattet. Während Android- Smartphones schon seit vielen Jahren Dual-SIM-fähig sind, erhalten so erstmalig auch iPhone-Modelle die Möglichkeit, mehr als einen Mobilfunkanschluss parallel zu bedie- nen.

Der eSIM-Standard basiert auf mehreren von der GSM Association herausgegebenen Verfahren und Spezifikationen. Im Einzelnen sind dies:

SGP.21 eSIM Architecture Specification - behandelt die übergeordnete Architektur zur Bereitstellung eSIM

SGP.22 eSIM Technical Specifications - behandelt die einzuhaltenden technischen Spezifikationen

SGP.23 eSIM Test Specifications - behandelt die anzuwendenden Testfalle um eine Implementierung zu überprüfen

SGP.24 Compliance process - behandelt die einzuhaltenden Prozesse um ein Produkt als "eSIM-fahig" deklarieren zu können SGP.25 eUICC for Consumer Device Protection Profile VI .0 - beschreibt die Sicher- heitsanforderungen an die eSIM-Profile in Form eines Evaluierungsgegenstandes

58. Mobilfunktechnik

Die Mobilfunktechnik beinhaltet Verfahren für die Verarbeitung und Übertragung von Funksignalen und Komponenten für den Betrieb eines Mobilfunknetzwerks. Die Mobil- funktechnik wird mittels stationärer oder mobiler Endgeräte für die mobile Kommuni- kation genutzt. Hierbei bilden zusammengeschaltete Basisstationen ein Netzwerk, das es ermöglicht jederzeit mit dem Mobilfunknetz verbunden zu sein.

Der Erfolg und das breite Interesse an der Nutzung der Mobilfunktechnik war die stän- dige Erreichbarkeit und Verfügbarkeit eines Mobilfunknetzes. In der Folge stieg die Mobilität stark an und das Interesse an mobilen Anwendungen und Diensten nahm ebenso stark zu. Obwohl Mobilfunktechniken vordergründig zur Übertragung von Sprache entwickelt wurden, waren die Killeranwendung im Mobilfunk immer die Da- tendienste. Bei GSM war es SMS, bei UMTS das mobile Internet und bei LTE das DSL-to-go-Feeling.

GSM gilt zumindest in Europa als Basistechnik mit nahezu hundertprozentiger Netzab- deckung. UMTS ist die Basistechnik für schnellen mobilen Internet-Zugang. Wobei es durch den stetig steigenden Bedarf an schnellem mobilen Internet von LTE abgelöst wird.

Die Kommunikationstechnik-Fibel ist ein Buch über die Grundlagen der Kommunikati- onstechnik, Übertragungstechnik, Netze, Funktechnik, Mobilfunk, Breitbandtechnik und Voice over IP.Die 3GPP ist die Standardisierungsorganisation für Mobilfunktech- niken, die in Mobil funknetzen verwendet werden. Die 3GPP veröffentlicht Standards in Form von Releases, die die technische Entwicklung bestehender Systeme, wie GSM, UMTS, LTE und neue Systeme einführt. Die ITU definiert die technische Generation der Mobilfunksysteme.

Die Mobilfiinksysteme der 1. Generation (IG) sind die A-, B- und das C-Netz (C-450). Alle drei Netze haben die analoge Sprachübertragung auf der Funkschnittstelle zwi- schen Mobilfunktelefon und Basisstation gemeinsam.

Mit GSM wurde erstmals ein digitales Übertragungsverfahren für die Sprachübertra- gung verwendet. Damit wurde die Kapazität der Funkschnittstelle besser ausgelastet. GSM entspricht deshalb einer Mobilfunktechnik der 2. Generation (2G). Für die Daten- übertragung wurden die Erweiterungen HSCSD und GPRS eingeführt, die auch unter 2.5G eingeordnet werden). Eine weitere Erweiterung ist EDGE, unter 2.75G einzuord- nen ist.

Hauptbestandteil von Mobilfunktechniken der 3. Generation (3G), z. B. UMTS, sind Datendienste, wie z. B. Videotelefonie und der mobile Internet-Zugang. Weitere Zwi- schenschritte sind HSPA, HSPA+ (3.5G) und LTE (3.9G). Offiziell gilt erst LTE Ad- vanced zur 4. Generation (4G). Die Erweiterung dazu ist LTE Advanced Pro (4.5G).

Die Zukunft der Mobilfunktechnik wird 5G sein.

Jedes Mobilfunknetz (Mobile Network) besteht aus einigen elementaren Bestandteilen, die alle Netze gemeinsam haben. Zum Beispiel das Mobilteil meist in Form eines Mo- bilfunktelefons und die Basisstation. Im Prinzip ist ein Mobilfunktelefon ein schnurlo- ses Telefon, dessen Basisstation des Zugangsnetzes (Access Network) sich nicht in un- mittelbarer Nähe befindet, sondern einige Kilometer weiter weg und damit die Funkzel- le bildet. Die Funkzelle ist der Funkbereich zwischen Basisstation und Mobilteil ge- meint. Auf die Luftschnittstelle (Air Interface) wird in einem bestimmten Frequenzbe- reich mit einer Übertragungstechnik zugegriffen.

In den meisten Fällen ist die Luftschnittstelle der kleinste Teil der Funkübertragung. Die Übertragungsstrecke von der Basisstation zum Kemnetz (Core Network) wird als Backhaut bezeichnet und erfolgt über Glasfaserverbindungen. Nur in ganz entlegenen Gebieten, wo weit und breit keine Kabel liegen oder deren Nutzung zu teuer ist, werden Richtfunkstrecken verwendet. Für den Betrieb der Basisstationen und des Kernnetzes sind in der Regel die Netzbetreiber verantwortlich. Weil ein solches Mobilfunknetz nicht für sich alleine steht, ist es mit anderen Data Networks anderer Netzbetreiber ver- bunden.

Ein Mobilfunknetz ist in Zellen aufgeteilt. Der Durchmesser einer Zelle beträgt mehrere Kilometer. In jeder Zelle hat der Mobilfunknetzbetreiber eine oder mehrere Basisstatio- nen aufgebaut. Bewegt sich ein Handy-Nutzer durch das Mobilfunknetz, dann bewegt er sich durch viele Zellen. Manchmal kommt es vor, dass er sich in einen Bereich einer Zelle bewegt, der sehr schlecht oder gar nicht mit Funkwellen von der Basisstation er- reicht wird. Er befindet sich dann in einem Funkloch. Diese Funklöcher kommen sehr häufig vor. Was man in der Regel nicht merkt. Meistens sind diese Funklöcher ganz klein. Doch es gibt auch Funklöcher, die ganze Landstriche überziehen.

Das Handy strahlt seine Funkwellen in alle Richtungen aus. Bei den Basisstationen un- terscheidet man zwischen der omnidirektionalen und der sektorisierten Basisstation. Die omnidirektionale Basisstation steht im Zentrum einer Funkzelle und strahlt ihre Funkwellen genau wie das Handy in alle Richtungen (360° Abstrahlwinkel der Anten- ne) aus. Die sektorisierte Basisstation wird zur Erhöhung der Gesprächskapazität einge- setzt. Sie strahlt ihre Funkwellen nur in einem von drei Sektoren einer Funkzelle aus.

Da der Mobilfunkkunde nicht immer innerhalb einer Zelle bleibt, kommt es vor, dass er sich an den Rand einer Funkzelle bewegt. Das Netz erkennt dann, wann es besser ist, eine neue Verbindung zu einer anderen Basisstation aufzunehmen.

Das Netz entscheidet dann anhand der Verbindungsqualität, welche Basisstation für ei- ne Verbindung besser geeignet ist.Die Verbindungsqualität zu den Basisstationen wird ständig geprüft. Bei Bedarf wird die Basisstation gewechselt. Dabei wird die Verbin- dung zur alten Basisstation erst abgebrochen, wenn die neue Verbindung steht. Der Handynutzer merkt davon nichts. Seine Sprach- und Datenverbindungen werden unter- brechungsfrei fortgeführt. Der Netzbetreiber ist deijenige, der das Netz aufbaut, wartet und instand hält. In Deutschland sind das die Firmen T-Mobile, Vodafone und Telefonica. Den eigentlichen Anschluss an das Mobilfunknetz und den Kartenvertrag erhält man nicht zwangsläufig vom Netzbetreiber. Ein sogenannter Service-Provider kauft von den Netzbetreibern Minuten und Anschlüsse (Rufnummern) ein und schaltet die SIM -Karte frei und verschickt auch die monatliche Gebührenabrechnung. Durch die Mittler- bzw. Händlerfunktion zwischen Nutzer und Netzbetreiber entstehen sehr viel Tarife und Ta- rifoptionen, die auf unterschiedliche Kunden bedürfnisse zugeschnitten sind.Der Kunde kann sich so den für sich günstigsten Tarif heraussuchen, wenn er in der Lage ist mit der Unübersichtlichkeit der Angebote klar zu kommen.

Die SIM-Karte ist eine kleine rechteckige Karte, auf der sich ein Chip befindet, auf dem alle wichtigen Daten des Besitzers und seines Handys gespeichert sind. Jede Karte hat eine weltweit einmalige Kennung, mit der sich das Handy am Mobilfunknetz anmeldet. Auf SIM-Karten werden vor allem die Zugangsinformationen des Mobilfunk-Anbieters gespeichert.

Auf dem Chip befindet sich auch der vierstellige Sicherheitscode, die Personal Identity Number (PIN), den der Benutzer eingeben muss, wenn sich das Handy am Mobilfunk- netz anmeldet. Die PIN schützt vor unberechtigten Zugriffen fremder Nutzer mit dieser SIM-Karte auf das Mobilfunknetz. Die PIN selber hat mit dem Mobilfunknetz jedoch nichts zu tun. Es ist nur eine lokale Sicherheitsmaßnahme, die aber nicht den Zugriff auf das Handy verhindert.Die SIM-Karte kann von einem Mobiltelefon herausgenom- men und in ein anderes eingesetzt werden, so das die zugewiesene Rufnummer über ein anderes Mobiltelefon genutzt werden kann. Voraussetzung ist, dass das Gerät nicht per SIM-Lock gesperrt ist.

Für das UMTS-Netz gibt es eine spezielle SIM-Karte, die U-SIM. Es ist eine verbesser- te SIM-Karte mit mehr Speicherplatz und Funktionen.Im Zuge der Miniaturisierung der Mobilfunkgeräte wurde auch die SIM-Karte verkleinert. Die Micro-SIM entspricht in etwa der Hälfte einer SIM-Karte. Um aus einer herkömmlichen SIM-Karte eine Micro- SIM zu machen gibt es Stanzgeräte.

Die Nano-SIM ist eine stark verkleinerte SIM-Karte und zu den bisherigen SIM- Versionen kompatibel. Das ETSI spricht offiziell vom "vierten Formfaktor" (4FF) mit den Abmessungen 12,3 mm x 8,8 mm x 0,67 mm. Damit ist die Nano-SIM in etwa so lang wie die Micro-SIM breit ist. Es bleibt lediglich der Chip mit einer sehr dünnen Umrandung übrig. Mit der Nano-SIM können die Smartphone-Hersteller ihre Geräte noch flacher und kompakter bauen. Vom eigenhändigen Zuschneiden, wie es bei der Micro-SIM üblich war, sollte man die Finger lassen.

Typischerweise ist der Mobilfunkanschluss an die SIM-Karte gebunden. Es gibt jedoch Bestrebungen die SIM als Funktion Software-basiert zu realisieren. Eine Implementati- on ist die eSIM.

Multi-SIM ist die Möglichkeit mit einem Mobilfunkvertrag mehrere SIM-Karten zu verwenden. Für alle SIM-Karten gilt der gleiche Vertrag und die gleiche Rufnummer. Mehrere SIM-Karten können in verschiedenen Geräten gleichzeitig genutzt werden. Während man mit dem Handy telefoniert, kann man gleichzeitig mit dem Notebook das Internet nutzen. Oder man hat eine SIM-Karte im Handy und die andere im Tablet. Da alle SIM-Karten die gleiche Rufnummer haben, klingeln bei einem Anruf alle Gerä- te gleichzeitig. Bei abgehenden Telefonaten wird die gleiche Rufh ummer übermittelt. Alle Geräte können sogar gleichzeitig genutzt werden. Was nicht geht, dass sich die Geräte untereinander gegenseitig anrufen.Je nach Mobilfunkbetreiber hat die Multi- SIM-Karte eine andere Bezeichnung. Bei Bedarf muss man gezielt nachfragen.

Um die genannten Übertragungsgeschwindigkeiten nutzen zu können, muss der Netzbe- treiber sie explizit unterstützen. Er muss die dazugehörige Technik in seinem Netz in- stalliert und in den dafür vorgesehenen Datentarifen ffeigeschaltet haben. Je nach Netz- betreiber variiert deshalb die Übertragungsgeschwindigkeit.Auf der Nutzerseite muss ein entsprechendes Endgerät vorhanden und der entsprechende Datentarif gebucht sein.Die genannten Übertragungsraten bleiben dann immer noch reine Theorie. In der Praxis spielt die Entfernung zur Basisstation und die Anzahl der parallel nutzenden Teilnehmer eine Rolle. Die Geschwindigkeit sinkt mit der Entfernung zur Basisstation und der Anzahl der Teilnehmer.

Die Übertragung von Sprache (Telefonie) und Daten (Internet) sind die Hauptanwen- dungsgebiete der Mobilfunktechnik. Während bei der Telefonie die Anforderungen an die Bandbreite eher gering sind, spielt die Reichweite eine viel größere Rolle. Telefo- nieren mit Mobilfunktechnik heißt vor allem überall erreichbar zu sein und selber jeder- zeit telefonieren zu können. Da sind Abstriche bei der Sprachqualität kein Problem. Es lässt sich auch unter schlechten Empfangsbedingungen durchaus kommunizieren.

Bei der Datenübertragung ist ungünstiger Netzempfang schlecht für die Übertragungs- geschwindigkeit. Ein schlechter Empfang fuhrt zu einer höheren Fehlerrate. Ist die Da- tenübertragung gestört müssen defekte oder verlorene Daten erneut übertragen werden. Das geht zu Lasten der effektiven Übertragungsgeschwindigkeit. Zum Ausgleich wird die Übertragungsrate reduziert und somit auch die Fehlerrate. Aus diesem Grund schränkt man auch die Reichweite (Funkausbreitung) von Funksystemen für Datendien- ste ein und erhöht dadurch die Datenrate auf kurze Distanzen. Die Bandbreite und Reichweite von Mobilfunksystemen hängt unweigerlich zusammen. Will man viel Reichweite muss man die Bandbreite einschränken und aufgrund der Reichweite müssen sich viele Teilnehmer die Bandbreite teilen. Will man viel Band- breite muss man die Reichweite reduzieren, damit weniger Störungen die Funkschnitt- stelle belasten und die Anzahl der erreichbaren Teilnehmer klein bleibt.

Viele unterschiedliche Faktoren haben auf die Sprachqualität im Mobilfunk Einfluss. Die verwendeten Hardwarekomponenten, wie Mikrofon, Hörkapsel, DSP und das Ge- häusematerial und Gehäuseform spielen eine entscheidende Rolle. Und auch die Soft- ware im Mobilfunktelefon beeinflusst die Sprachqualität.Betrachtet man die Nutzungs- umgebung eines Mobilfunktelefons, so wird es in der Regel in Umgebungen mit einer Vielzahl unterschiedlicher Geräuschkulissen eingesetzt. Jede Umgebung hat dabei ihr ganz eigenes Geräuschspektrum, das manchmal sehr laute Hintergrundgeräusche er- zeugt. Mobilfunktelefone müssen in der Lage sein diese störenden Geräusche auszu- blenden oder stark zu unterdrücken. Je besser das gelingt, desto besser ist die Verständ- lichkeit der Sprache. Gleichzeitig wächst, bei der intensive Nutzung des Mobilfunks, die Forderung nach einer besseren und konstanteren Sprachqualität. Doch bessere Mikrofo- ne und Hörkapseln, sowie die Optimierung des Gehäuses verteuern die Produkte. Durch die Miniaturisierung entsteht eine immer komplexere Elektronik. Denn die Elek- tronik muss das leisten, was die Akustik des Gehäuses nicht leisten kann. Das bedeutet, die Rechenleistung und somit auch der Energieverbrauch steigen.

Das Frequenzspektrum unter 1.000 MHz ist bei den Mobilfunknetzbetreibern besonders begehrt. Um ein großes Gebiet mit Mobilfunk abzudecken sind vergleichsweise wenige Sendemasten notwendig, im Vergleich zu den Frequenzbereichen um 1,8 und 2,6 GHz. Das bedeutet, dass in einem niedrigeren Frequenzbereich der Netzausbau mit geringe- ren Kosten verbunden ist. Höhere Frequenzbereich eignen sich eher für kleine Zellen in Städten und Ballungsgebieten.

59. Fernbedienung

Als Fernbedienung (umgangssprachlich auch (Femseh)schalter, (Femseh)drücker oder Zepter der Neuzeit genannt, veraltet, insbesondere bei Fernsehgeräten, dieMacht be- zeichnet man üblicherweise ein elektronisches Handgerät, mit dem sichüber kurze bis mittlere Entfernungen (etwa 6 bis 20 m) Geräte oder Maschinen bedienen lassen. Für Steuerungen über größere Distanzen ist der Begriff Funkfernsteuerung gebräuchlich.

Die Femsehfernbedienung wurde im Jahr 1948 in den USA entwickelt. Sie war damals über ein Kabel mit dem Fernseher verbunden und konnte nur das Bild vergrößern oder verkleinern. 1950 brachte die Firma Zenith Radio Corporation eine ebenfalls kabelge- bundene Fernbedienung namens„Lazy Bones“ (englisch für„Faulpelze“) heraus, wel- che die Programme umschalten konnte. Fünf Jahre später folgte die drahtlose Fernbedienung Flash-Matic. Sie war eine Idee des Zenith-Mitarbeiters Eugene Polley und funktionierte mit einem sichtbaren Lichtstrahl, der auf einen von vier lichtsensitiven Sensoren in den Ecken des Fernsehgerätes gerich- tet wurde. Dabei konnte auch häufig das bloße Tageslicht den Fernseher einschalten. Ein Jahr später, 1956, ersetzte Ultraschalltechnik die Lichtmethode. Der Österreicher Robert Adler, ein Entwickler von Zenith, baute das Modell„Space Commander“. Es funktionierte ohne Batterien, indem ein Hämmerchen - ähnlich wie beim Klavier - auf einen Stab schlug, der die Ultraschalltöne erzeugte. Kurz darauf folgten vom selben Hersteller das Modell„Kadett“ (1958) und etwas später„Vector“ (1960).

In Deutschland erschien die erste,„Zauberschalter“ genannte, Fernbedienung im Jahr 1956 von der Firma Tonfunk. Mit ihr konnte das Radiogerät drahtlos ein- und ausge- schaltet werden. Ab 1959 gab es dann Fernbedienungen mit mehreren Funktionen für Fernsehgeräte.

Man kann Fernbedienungen nach dem Übertragungsmedium unterscheiden: Drahtge- bundene Fernbedienung Drahtverbindung mit mechanischer Wirkung (Bowdenzug, Druckluftschalter, Fesselflug), Drahtverbindung mit elektrischer Wirkung, zum Beispiel zur Flugkörpersteuerung (siehe zum Beispiel MILAN), Fernbedienung am Lenkrad für das Autoradio, ältere Fernbedienungen von Fernsehgeräten (Kabelfembedienung)

Drahtlose Fernbedienung Schall und Ultraschall (etwa Mehrfrequenzgeber für die Fem- abffage von Anrufbeantwortern und [bis ca. 1975] die ersten Ultraschallfembedienun- gen für Fernseher) Funkwellen (beispielsweise zur Fementriegelung von Autos, Gara- gentoröffhung, Funkschalter, Bluetooth bei modernen Unterhaltungsgeräten), Infrarot- strahlung (IR) (unter anderem für elektronische Geräte wie Fernseher)

Funkfembedienungen sind im Gegensatz zu IR-Fembedienungen nicht auf optische Sicht zum Empfänger angewiesen und wirken somit auch durch Decken und Wände. Dafür kann es beim Einsatz weiterer Funkanwendungen (drahtloses Telefon, Video- übertragung usw.) und von Mikrowellengeräten zu Störungen kommen. Daneben gibt es noch Universalfembedienungen, welche die verschiedensten Geräte unterschiedli- cher Marken bedienen können. Geräte mit höherer Reichweite werden meist als Fern- steuerung bezeichnet und arbeiten mit Funkwellen. Geräte mit nur wenigen Funktionen nennen sich Handsender.

Ursprünglich wurden die Signale ausschließlich über ein Kabel geleitet, wohingegen heutige Fernbedienungen in der Regel drahtlos sind. Als Übertragungsverfahren können beispielsweise Radiowellen verwendet werden, dazu ist manchmal eine Genehmigung der nationalen Femmeldebehörden (in Deutschland die Bundesnetzagentur) nötig. Nicht genehmigungspflichtig sind Übertragungen mittels Infrarot, induktive Übertragung mit einer Sendefrequenz um 10 kHz, beispielsweise zum Öffnen von Garagentoren und Ul- traschallfembedienung - sie ist heute kaum noch verbreitet. Ultraschallfernbedienungen sind - wie induktive Fernbedienungen - anfällig gegen Störsignale aus der Umgebung. Außerdem können Tiere Ultraschall hören und bei Betätigung aufschrecken.

Die meisten Fernbedienungen arbeiten heute mit Infrarot (Leuchtdioden bei einer Wel- lenlänge von 940 nm als Sender). Zur Verbesserung der Störsicherheit wird die Strah- lung mit einer Frequenz von 20 bis 70 kHz moduliert. Die Modulation des Signals ver- ringert den Stromverbrauch des Senders und macht die Übertragung störsicher gegen Fremdlicht. Bei Infrarot-Fernbedienungen ist unmittelbarer Sichtkontakt zum zu steu- ernden Gerät nicht zwingend erforderlich, da IR-Signale von vielen Flächen reflektiert werden.

Neuere Entwicklungen verwenden Funkfrequenzen um 2,4 GHz. Unter anderem lassen sich Geräte per Mobiltelefon oder Computer mittels Remote-Apps über Bluetooth oder LAN/WLAN femsteuem. Diese Methode erfordert keinen Sichtkontakt.

Infrarot-Fernbedienung: IR-Fembedienungen senden ein Signal im unsichtbaren Infra- rotbereich aus. Als Strahlungsquelle dienen häufig Infrarotleuchtdioden. Das Signal wird mit einer Frequenz um 40 kHz aus- und eingeschaltet. Dadurch erhöht sich die Störsicherheit des Empfängers: Ein Bandpassfilter lässt nur diese Frequenzen passieren und sperrt zufällige Störsignale aus. Durch Modulation dieses Sendesignals werden In- formationen zum Empfänger übertragen.

Ein Beispiel zeigt ein IR-Trägersignal von 38 kHz. Die Signalfolge (englisch burst) hat eine Sendedauer von circa 560 ps, das sind in etwa 21 Wellenzüge des Trägersignals. Durch zeitlich versetztes Senden der Signalfolgen lassen sich Daten übermitteln. Die Bursts und die Pausen zwischen ihnen kodieren die Information, die an den Empfänger übermittelt werden soll. Das Trägersignal ist im rechten Bild wegen der geringen Auf- lösung nicht zu erkennen.

Die Kodierung erfolgt nach unterschiedlichen Verfahren durch Variation der Burst- und Pausendauer (Impulstelegramm). Eine Audiodatei zeigt beispielhaft, wie sich ein IR- Signal anhören würde: Im ersten Klangblock kodieren Pulse mit einer Länge von 500 bzw. 1600 ps Dauer, getrennt von ca. 500 ps langen Pausen, die Information. Die fol- genden Knack-Geräusche teilen dem Empfänger mit, dass die Fernbedienung länger gedrückt wird und die Information des ersten Blocks wiederholt werden soll. Es folgen zwei weitere Sequenzen, die die Information anderer gedrückter Fernbedienungstasten übermitteln. Das Wiederholungssignal ist identisch. Die feinen Unterschiede im Infor- mationsblock sind auditiv nicht wahrzunehmen.

Verbreitet sind die Verfahren RC-5 und RC-6, die auf die Firma Philips zurückgehen. Sie verwenden einen Träger von 36 kHz. Die Bursts und Pausen haben jeweils eine Dauer von 889 ps. Der Kodierung liegt ein Manchester-Code zu Grunde. Dadurch tre- ten Pausen und Bursts von einfacher und maximal doppelter Dauer auf. Ein Signalpaket überträgt 14 Bit, so dass pro Sekunde ein Sendebefehl mindestens zehnmal wiederholt ausgestrahlt wird.

Im Handgerät bzw. in der Fernbedienung befindet sich eine Batterie, eine Steuerschal- tung, das Tastenfeld und eine Galliumarsenid-Leuchtdiode. Die Steuerschaltung (fast immer als integrierte Schaltung (IC) ausgeführt) erzeugt für jede Taste einen spezifi- schen Code und liefert die damit modulierte Trägerfrequenz (beispielsweise 36 kHz) an die Leuchtdiode. Oft ist ein Treibertransistor zur Verstärkung dazwischengeschaltet. Die Modulationsfrequenz wird von einem Oszillator erzeugt, der meist mit einem Ke- ramikresonator arbeitet.

Der Empfänger, etwa im Fernsehempfänger, besteht aus einer Photodiode, einem bei 36 kHz selektiv arbeitenden geregelten Verstärker (AGC) und einem Demodulator, der das digital codierte Signal an die Steuerschaltung des Gerätes liefert. Vor der Photodi- ode sitzt ein für sichtbares Licht undurchlässiger Sperrfilter, um Störungen, zum Bei- spiel von Energiesparlampen, zu vermeiden.

Während solche Empfänger früher aus diskreten Bauteilen aufgebaut waren, sind sie seit den 1990er Jahren als IC verfügbar, die alle diese Funktionen enthalten. Meist sind IC und Photodiode in einem gefärbten Kunststoffgehäuse integriert, das sichtbares Licht ausfiltert.

Einer der populärsten Empfangs-ICs ist der TSOP1736 für 36 kHz. In der TSOP17.. Reihe sind Empfangs-ICs für die Frequenzen 30, 33, 36, 36,7, 38, 40 und 56 kHz er- hältlich. IR-Fernbedienungen werden für Haushaltsgeräte und vor allem im Bereich der Unterhaltungselektronik verwendet.

Funkfembedien ungen finden unter anderem zum Öffnen/Schließen von Garagentoren oder zum Ver- und Entriegeln von Automobilen (seit den 1990er Jahren) Verwendung. Universalfembedienungen sind Fernbedienungen, die verschiedene Geräte bedienen können. Es ist zu unterscheiden zwischen lernfähigen Fernbedienungen, die mittels der Original-Fernbedienung angelernt werden und programmierbaren Fernbedienungen, die mittels eines Zahlencodes auf die zu bedienenden Geräte eingestellt werden. Universal- fembedienungen können auch beides, Zahlencodes für die gängigsten Markengeräte und Lernfunktion für unübliche Steuersignale.

Universalfembedienungen können mehrere Geräte steuern: Im Allgemeinen stellt man über sogenannte Gerätetasten die Bedienung auf ein bestimmtes Gerät ein - und kann somit alle Geräte mit einer einzigen Fernbedienung steuern. Um sie an die Geräte anzu- passen, müssen oft herstellerspezifische Codes in die Fernbedienung eingegeben wer- den.

Die bessere Alternative ist eine Programmierung über eine (gut gepflegte) Datenbank im Internet (Online-Verbindung erforderlich) und zusätzlich noch eine Lernfunktion, über die auch evtl nicht funktionierende Befehle korrekt eingelemt werden können.

Die teureren unter den Universalfembedienungen bieten zusätzlich noch sogenannte „aktionsgesteuerte Aktivitäten“, d. h. zuerst werden alle im Heimkino verwendeten Ge- räte mittels Herstellerangabe und Modellbezeichnung aus einer Liste auf der Hersteller- Webseite eingegeben, die Befehle sodann auf die Fernbedienung übertragen und an- schließend logisch für verschiedene Aktionen miteinander verknüpft. So fahrt bei- spielsweise auf Knopfdruck neben dem im Display angezeigten„Beamer TV“ die Leinwand nach unten, der Projektor schaltet sich ein, der richtige Video-Eingang am Projektor wird gewählt, der A/V -Receiver schaltet sich ein und der korrekte Audio- Eingang wird eingestellt. Sodann schaltet sich der DVD-Player ein, das Licht wird ge- dimmt und der Film startet.

In oben aufgefuhrtem Szenario steuert die Universalfembedienung auch Geräte, die via Funk angesprochen werden, z. B. die Motorleinwand oder die Beleuchtung via Funk- steckdosen. Dazu gibt es im Handel preiswerte Umsetzer von Infrarot auf Funk, eine gute Anleitung dazu gibt es weiter unten in den Weblinks. Die größte Verbreitung ha- ben aktionsgesteuerte Universalfembedienungen naturgemäß in Heimkinos mit ihrem meist größeren Gerätepark.

Eine Sonderform der Universalfembedienung stellte die„Betty“ dar, ein als interaktive Fernbedienung beworbenes Gerät der Swisscom Fixnet. Dieses kam 2006 auf den Schweizer und Anfang 2007 auf den deutschen Markt. Die Fernbedienung bot, beglei- tend zum Programm einiger Fernsehsender, auf dem Display Spiele, Hintergrundinfor- mationen und Werbung. Gewinne wurden als Bonuspunkte ausgezahlt. Erfasste Daten wurden per Telefon mittels eines eingebauten Modems übertragen. Der Aufbau des Systems ermöglichte es dem Anbieter, das Seh- und Nutzungsverhalten des Zuschauers zu protokollieren.

Nach der Markteinführung wurden in Deutschland anstatt der geplanten 500.000 bis 1.000.000 Kunden bis zum 25. Juli 2007 nur 100.000 Bettys abgesetzt. Betty wurde in der Schweiz und in Deutschland Ende 2007 eingestellt. Die Betty wurde zu einer ge- wöhnlichen Universalfembedienung.

Ein alternatives Betriebssystem für die Betty, die boop-Firmware, wurde nach der Car- toonfigur Betty Boop benannt. Damit arbeitet sie als Universalfembedienung für die d- box2, Xbox und andere Geräte.

60. Fernsteuerung

Als Fernsteuerung wird jegliche Möglichkeit der gezielten mechanischen, hydrauli- schen oder pneumatischen, elektrischen und/oder elektronischen Einflussnahme und Steuerung auf Geräte, Maschinen oder andere Einrichtungen bezeichnet, wobei dies über eine Feme, also einen Abstand vom besagten Gerät erfolgen können muss, also nicht über unmittelbar am Gerät angebrachte Bedienelemente.

Häufig wird nicht unterschieden, ob die Melderichtung ebenfalls instrumentiert ist.

Von einer Fernsteuerung spricht man in aller Regel, wenn sich das zu bedienende Gerät nicht im selben Gehäuse befindet wie dessen Steuerungselement. Beispiele sind der Schalter einer Deckenleuchte, der Zughebel einer Fahrradbremse, die Fernbedienung eines Fernsehers, die Nutzung eines Servers vom heimischen PC aus oder das Steuern eines Modellflugzeuges.

Wenn die Signalübertragung über (öffentliche) Telekommunikationsnetze durchgeführt wird, hierbei spricht man von Femwirken. Tonfrequenz-Signale des Stromnetzbetrei- bers schalten seit zumindest 1965 in Österreich bei den Verbrauchern die optierte "un- terbrechbare Stromversorgung" vulgo Nachtstrom zu preiswerterem Energietarif spät- abends ein und morgens aus. Dazu sind in den Sicherungskästen Rundsteuerempfänger eingebaut.

Bei vielen Eisenbahninffastrukturuntemehmen werden die Stellwerks- und Sicherungs- anlagen zahlreicher Bahnhöfe femgestellt bzw. ferngesteuert. Dabei wird grundsätzlich gemäß gesetzlichen Regeln auch die Melderichtung ausgestattet. Für alle Varianten wird ein internes Leitungsnetz genutzt. Der Vorteil einer echten Fernsteuerung ist der deutlich geringere Aderbedarf zwischen der Femsteuerzentrale und den ferngesteuerten Stellwerken. Femgestellt sind Bahnhöfe ohne eigenständige Stellwerkslogik, deren Fahrwegelemente und Signale von einem benachbarten Stellwerk aus bedient wer- den.Femgesteuert sind Bahnhöfe, die über ein eigenständiges Stellwerk verfügen, wel- ches aber von einem anderen Stellwerk oder einer Betriebszentrale aus ferngesteuert wird.

61. Funkfernsteuerung

Es folgen weitere Ausführungsformen der Erfindung:

Die Funkfernsteuerung (engl radio control oder RC) beruht auf dem Einsatz von Funk- signalen zur Steuerung einer technischen Vorrichtung aus der Feme. Der Begriff wird meist verwendet, um die Steuerung von Modellautos, -booten, -flugzeugen oder - hubschraubem mit einem vom Piloten betätigten Steuergerät zu bezeichnen. Für die Öf- fentlichkeit sind nur bestimmte Frequenzbänder (ohne Lizenz) freigegeben.

Um mehrere Modelle bei einem Wettkampf betreiben zu können, sind freigegebene Frequenzbänder (27 MHz, 35 MHz, 40 MHz, 433 MHz, 2,4 GHz) durch ein Kanalraster unterteilt. Sende- wie Empfangskanal werden von einem Quarzoszillator vorgegeben. Moderne Sende- und Empfangsquarze (Quarzpaar) eines jeden Kanals besitzen eine Frequenzdifferenz in Höhe der Zwischenfrequenz des Empfängers. Neueste mikropro- zessor-betriebene Empfänger kommen durch die Nutzung einer PLL ohne Kanalquarze aus. Mit der Erfindung der Funktechnik wurden die Grundlagen für eine drahtlose Übermitt- lung von Steuersignalen vorbereitet: Nikola Tesla führte bereits 1898 in New York ein funkferngesteuertes Schiffsmodell vor und ließ sich diesen Entwurf einer Funkfern- steuerung patentieren. Professionell wurden die ersten Funkfernsteuerungen in den 1920er-Jahren zur Steuerung von Zielschiffen für Schießübungen bei der Marine einge- setzt. In der zweiten Hälfte der 1930er-Jahre wurden die ersten erfolgreichen Versuche der Fernsteuerung von Flugmodellen besonders in England und Deutschland (unter an- derem beim Rhönwettbewerb 1938) durchgeführt. Bereits 1936 wurde auf der Wasser- kuppe mit dem Segel-Flugmodell BF 52 die erste von Ernst Namokel mit erbaute Funk- fernsteuerung erfolgreich erprobt. Ein Nachbau des K-Röhrenempfängers mit einer Anodenspannung von 12 Volt und einer Heizspannung der Röhren von 3 Volt wurde von dem über 80-jährigen Emst Namokel für die Ausstellung im Deutschen Segelflug- museum mit Modellflug auf der Wasserkuppe zur Verfügung gestellt. Dieser Flug kann als ein weiterer Meilenstein in der Geschichte des Modellfluges gesehen werden. Der Nachbau des Modells BF 52 befindet sich ebenfalls in der Ausstellung.

Während des Zweiten Weltkrieges wurden Funkfernsteuerungen für eine Reihe von Flugobjekten verwendet. Das Ziel war insbesondere die Entwicklung funkgesteuerter Seezielflugkörper für den Einsatz gegen Schiffsverbände, die ansonsten nur schwierig und unter sehr hoher Eigengefährdung anzugreifen waren. Gegen Ende des Krieges hat- te die Luftwaffe ähnliche Fragestellungen beim Angriff auf Bomberverbände, und es wurden zahlreiche ferngesteuerte Flugkörper entwickelt (elektropneumatische Syste- me), die aber nicht mehr zum Einsatz kamen.

Nur für die ballistische V2-Rakete wurden bei 20 Flügen experimentell erstmals Fern- steuerungen mit Hilfe von Radarfrequenzen erprobt. Aber auch hier war es nur möglich, 1 Bit (1 Kanal An/Aus) zu übertragen, eine erwünschte Proportional Steuerung blieb späteren Entwicklungsstadien Vorbehalten.

Auch in Großbritannien und in den USA wurden Funksteuersysteme entwickelt, um die Gefährdung der Besatzungen beim Einsatz gegen stark verteidigte Ziele zu verringern. Jedoch erwies sich keines dieser Systeme als in der Praxis verwendbar. Ein Gerät, Pro- jekt Aphrodite, erwies sich als gefährlicher für seine Benutzer als für das Ziel. Funksteuersysteme dieser Ära waren im Allgemeinen elektromechanischer Natur. So wurde ein Radiogerät in einen Flugkörper eingebaut, das vom Steuerpult übertragene Signal wurde demoduliert und einem kleinen Lautsprecher zugefuhrt. Vor dem Laut- sprecher waren einige kleine Metallzungen mit unterschiedlichen Resonanzfrequenzen angebracht, die aber enorme Anforderungen an die Frequenzstabilität der senderseitigen Tongeneratoren stellten. Durch deren Schwingungen wurden schließlich die Steuer- impulse für die Ruder ausgelöst.

Die Idee der Tonmodulation und der Zungenrelais-Schaltstufen wurde in der frühen Nachkriegsära bei den A2 -Modellfemsteuerungen erneut aufgegriffen - erst die Erfin- dung des Transistors und der hochempfindlichen Resonanz-Tonkreis-Schaltstufe mit Rückkopplung brachte jedoch den erhofften Durchbruch bei der Betriebssicherheit.

Der Physiker Nikola Tesla stellte bereits 1898 auf der Weltausstellung in New York ein von ihm entwickeltes funkferngesteuertes elektrisches Modellboot vor. Die ersten Mo- dellfunkfemsteuerungen gab es in der zweiten Hälfte der 1930er-Jahre, damals noch in der Regel in Eigenbau mit Röhrensender und -Empfänger hergestellt. Ab Anfang der 1950er-Jahre waren in Deutschland die ersten serienmäßig hergestellten Röhrenfem- steuerungen erhältlich - technisch sehr einfache Geräte mit Trägertastung; die Hochfre- quenz des Funksenders wurde lediglich an- bzw. ausgeschaltet.

Dadurch konnte nur ein einziger Steuerbefehl (Einkanalsender) übermittelt werden, wobei in der Regel die Modellsteuerung über eine Befehlssequenz erfolgte: z. B. einmal Tippen (= Einschalten des Sendesignals) bedeutet Links-, zweites Tippen wieder Neu- tralstellung, das nächste Tippen Rechtsruder usw., oder (häufiger) erste Mal Sender an = Rechtsruder, Sender aus = neutral, nächste Mal Sender ein = Linksruder und so wei- ter. Durch die Auswertung der Signaldauer mit Hilfe komplizierter Techniken (die Ru- dermaschine„Kinematik“ war ein Beispiel dafür) waren Zusatzfunktionen wie Motor- steuerung ebenfalls möglich. Die "Kinematik" von Graupner lief mit langen Impulsen rechts - neutral (Sender aus) - links - neutral und mit kurzen Impulsen Motor vorwärts - stopp - rückwärts - stopp und so weiter.

Eine für die Weiterentwicklung der Funksteuerung wichtige, aber wenig verbreitete Entwicklung der frühen Fernsteuertechnik, war die damals höchst innovative elektro- mechanische Einkanal-Proportionalanlage der Firma Webra, die auch unter der Be- zeichnung„Flattersteuerung“ bekannt wurde: mit Hilfe eines mechanisch betriebenen Impulsgebers ließ sich das Tastverhältnis HF -Impuls / Pause senderseitig verändern. Das Auswertungsprinzip im Empfängerservo beruhte auf der mechanischen Balance ei- ner Feder-Rückstellkraft und einer Gegenkraft durch einen vom senderseitigen Tastver- hältnis gesteuerten Elektromotor.

Die Einführung der Tonmodulation, d. h. einer einfachen Amplitudenmodulation der Sendefrequenz mit niedrigen Tonfrequenzen, aber vor allen Dingen die zunehmende Transistorisierung der Femsteuerelektronik in der zweiten Hälfte der 1950er -Jahre, re- volutionierte die Möglichkeiten der Modellsteuerung: von den funktionssicheren Ein- kanalanlagen bis hin zur Königsklasse der Zehnkanalanlage, die mit mehreren Tonge- neratoren sogar eine Simultansteuerung von bis zu drei Ruderfunktionen erlaubte, reichte die Palette der industriell hergestellten Femlenkanlagen. Die besseren Femsteu- ersender erhielten nun trotz der immer noch vorhandenen Ein/Aus-Beschränkung rich- tige Steuerknüppel statt einfacher Tipp-Tasten und mit Hilfe der Mehrkanaltechnik war eine realistischere und auch betriebssichere Modellsteuerung möglich.

Ab Ende der 1950er-Jahre wurden die vor allem wegen ihrer Batterien schweren Röh- renanlagen allmählich durch leichtere Hybridgeräte und später komplette Transistoran- lagen abgelöst - bedingt durch die niedrigen Grenzffequenzen damaliger Germanium- Transistoren waren die Hochfrequenzstufen der Sende- und Empfangsschaltungen in einer Übergangszeit noch mit Röhren bestückt, für niederfrequente Schaltungsfunktio- nen (Tongeneratoren, Gleichspannungswandler für die Anodenspannungserzeugung, Schaltverstärker, NF-Verstärker etc.) etablierte sich zusehends die ström- und platzspa- rende Transistortechnik. Beispiele für bekannte Hybridgeräte waren die weitverbreite- ten Sender der süddeutschen Firmen Graupner und Metz (Graupner Bellaphon A bzw. B, Metz Mecatron) und die Einkanal-Empfänger Graupner„Mikroton“.

Die unaufhaltsamen Fortschritte in der Halbleitertechnik ermöglichten seit etwa 1965 komplett elektronisch gesteuerte Proportionalanlagen, bei denen jedes Ruder genau dem Ausschlag der Knüppelbewegung am Sender folgt, womit sich insbesondere Flugmo- delle präzise und sicher steuern lassen. Die Proportionalanlagen sind seit ihrem Er- scheinen immer weiter bis zur Computeranlage verfeinert worden, an der prinzipiellen Funktionsweise hat sich seither jedoch nichts geändert.

Der Einsatz der Mikroelektronik erlaubte bald die Übertragung sehr komplexer Steuer- signale. Während frühe Steuersysteme zunächst lediglich mit unmodulierter Trägerta- stung arbeiteten, die später von den betriebssicheren tonmodulierten Femlenksystemen abgelöst wurden, schließen moderne Systeme zehn oder mehr Digital-proportionale Be- fehlskanäle ein. Diese RC-Systeme ermöglichen eine proportionale Steuerung - die Steuergröße im gesteuerten Fahrzeug, etwa die Stellung eines Ruders, ist stets propor- tional zur Position des Steuerknüppels auf dem Sender.

Mit der Einführung digitaler Technik hat der Funktionsumfang aktueller Fernsteuerun- gen wiederum deutlich zugenommen. Dabei lassen sich etwa Kanäle frei austauschen und ihre Kennlinien verändern oder mit anderen Funktionen mischen. Weiterhin kön- nen Servos programmiert werden, um beispielsweise Drehrichtung, Einbauwinkel und Ruderstellungen nach dem Einbau zu justieren, was in analogen Systemen nur über Eingriffe in die Senderelektronik (Funktionsmodule) möglich ist.

Bei Pulscodemodulation (PCM) verringert sich zusätzlich die Störanfälligkeit, da der Datenstrom digital auf Fehler geprüft werden kann. Bei Empfangsproblemen, z. B. im Flug, kann vom Empfänger ein definierter Ruderstand (Fail Safe, Hold) eingestellt wer- den. Weiterhin kann die Signalübertragung reaktionsschneller sein, da bevorzugt dieje- nigen Kanalwerte übertragen werden, die sich geändert haben. Neuere Techniken (PCM, Spread Spectrum) aus der Digital- und Computertechnik werden in Zukunft die Übertragungssicherheit weiter verbessern und Zusatzfunktionen (z. B. Telemetrie) ermöglichen. Dem breiteren Einsatz von Spread-Spectrum-Techniken stehen zurzeit noch regulatorische Beschränkungen der Behörden entgegen, sodass die- se Technik derzeit ausschließlich auf das ISM-Band beschränkt ist.

Eine erhebliche Weiterentwicklung betrifft die Miniaturisierung der Anlagen. Während ein Femsteuerungsempfänger von 1955 in Röhrentechnik mit zugehöriger Ruderma- schine und erforderlichen Batterien noch etwa 300 g wog und dabei nur eine einzige Funktion steuern konnte, kann heute eine Empfangsanlage in käuflicher Technik mit vier proportionalen Funktionen unter Verwendung eines Lipo-Akkus von 2,6 g mit 5 g realisiert werden. Dabei wiegt der Empfänger weniger als 1 g und die Ruderelemente jeweils etwa 0,35 g. Bei höherem Belastungsbedarf bei größeren Modellen sind natür- lich entsprechend stärkere und schwerere Bauelemente erforderlich.

Die Stellung der Hebel oder Regler der Steuerfunktion wird am Sender intern durch Po- tentiometer oder Schalter abgenommen und in ein elektrisches Steuersignal umgesetzt und auf die HF Sendefrequenz moduliert. Je nach Art des Steuersignals unterscheidet man Pulspausenmodulation (PPM) und die Pulscodemodulation (PCM). Bei den letzte- ren beiden spricht man von digital-proportionaler Übertragung, da das Steuersignal ein Digitalsignal ist, das wiederum die Stellung der Steuerhebel direkt proportional kodiert. Bei den HF -Modulationsverfahren unterscheidet man AM- und FM-Übertragungen, sowie neuerdings Spread Spectrum.

Im Empfänger wird die von der Antenne aufgenommenen HF-Energie verstärkt und demoduliert und dadurch das Steuersignal zurückgewonnen. Die Empfänger sind meist als Superheterodyn-Empfänger (Super), oft auch mit doppelter Frequenzumsetzung (Doppelsuper) ausgelegt. Das regenerierte Steuersignal wird anschließend decodiert, um die einzelnen Steuerfunktionen zu trennen und auf separaten elektrischen Ausgän- gen den entsprechenden Kommandoaufschalteinrichtungen zugeleitet. Als Kommandoaufschalteinrichtungen können mechanische Rudermaschinen (Servos) oder elektrische Regler, Steller oder Schalter zum Einsatz kommen.

Servos wandeln den Wert der Steuerfunktion in eine proportionale mechanische Bewe- gung um. Ein Potentiometer misst den Ist-Wert, der mit dem von Sender vorgegebenen Soll-Wert verglichen wird. Der Motor wird nun angefahren, bis der Soll-Wert erreicht ist. Durch die andauernde Nachregelung wird die Position auch bei Belastung gehalten. Elektrische Steller/Regler wandeln den Wert der Steuerfunktion in ein proportionales elektrisches Signal ftir einen Verbraucher (meist Elektromotor) um.

Für leistungsstarke Elektromotore wird meist die Versorgungsspannung mittels eines elektronischen Leistungsschalters (Transistor) pulsweitenmoduliert. Regler unterschei- den sich durch eine eingebaute Regelschleife. Das elektrische Signal des Verbrauchers wird hierzu durch eine Regelelektronik derartig nachgeregelt, dass eine Kenngröße des Verbrauchers (z. B. Drehzahl des Elektromotors) unabhängig von Umgebungseinflüs- sen (z. B. Veränderung der Versorgungsspannung, mechanische Belastung) proportio- nal zur Steuerfunktion ist.

Signal Strukturen : Bei den ersten Röhrenfemsteuerungen wurde das Steuersignal allein durch Ein- und Ausschalten der Hochfrequenz übertragen (Al -Betrieb). Der Hochfre- quenzteil der Femsteuerempfänger arbeitete zunächst ausschließlich nach dem Prinzip des Pendelempfängers, mit dem sich preisgünstig hochempfindliche Empfangsstufen realisieren ließen: ohne ein Hochffequenzsignal erzeugt das auch als Pendelaudion be- zeichnete Schaltungsprinzip eine starke Rauschspannung, wird die Hochfrequenz emp- fangen, verschwindet das Pendelrauschen. Die Rauschspannung des Pendelempfängers wird verstärkt und bildet die Grundlage zur Ansteuerung eines elektromechanischen Relais.

Mit speziellen Rudermaschinen ('selbstneutralisierend') konnte mit einer festgelegten Steuersequenz bereits ein Modell ferngesteuert werden: geradeaus/nach rechts/geradeaus/nach links/geradeaus/usw. Manch aufwändiger Rudermaschinen-Mechanik gelang es auch, die zeitliche Dauer der gesendeten Schaltimpulse (lang/kurz) auszuwerten und damit Zusatzfunktionen wie z. B. die Antriebssteuerung des Modells zu beeinflussen.

Einkanal-Proportionalsteuerung: Bereits in den frühen sechziger Jahren des letzten Jahrhunderts fanden Experimente mit einfachen Einkanal-Proportionalsteuerungen (Webra-Picco-Anlage) statt, bei denen mit Hilfe von mechanischen Sendeimpulsgebem das Zeitverhältnis von HF-Einschaltdauer und nachfolgender Sendepause (der Tastgrad) über eine mechanische Stellvorrichtung (Steuerknüppel) variiert werden konnte. Aus diesem Tastverhältnis wurde ein Steuersignal abgeleitet, das in der empfangsseitigen Rudermaschine in passende Ruderausschläge umgesetzt wurde. Durch die Trägheit und die niedrige Wiederholungsrate der Impulsgeber entstanden die für diese Anlagen typi- schen Flatterbewegungen der angeschlossenen Steuerruder, was zur Bezeichnung„Flat- tersteuerung“ führte.

Tonmodulation der Trägerfrequenzen 27,12 und 40,68 MHz: Einen großen Fortschritt in der frühen Femsteuertechnik brachte die Weiterentwicklung der Tonmodulation (A2- Betrieb), deren Grundprinzip einst militärischen Zwecken diente: die Trägerfrequenz des Femsteuersenders wurde mit der Tonfrequenzspannung eines Niederfrequenz- Oszillators moduliert und im Empfänger mit speziellen Schaltungstechniken in Schalt- signale umgewandelt. Das verbreitete Pendelaudion im Eingangsteil der A2- Femsteuerempfanger konnte sich zwar trotz seiner unbestreitbaren Nachteile (breit- bandige Störstrahlung, mangelhafte Trennschärfe) noch über einen langen Zeitraum be- haupten, wurde jedoch zusehends von dem leistungsfähigen und trennscharfen Superhe- terodynprinzip verdrängt, das durch seine hohe Trennschärfe den gleichzeitigen Betrieb mehrerer Modelle im gleichen Frequenzband ermöglichte.

Ähnlich wie beim analogen Mehrfrequenzwahlverfahren des Telefons sind die Steuer- funktionen bei der Tonmodulation durch auf die Hochfrequenz aufmodulierte unter- schiedliche Tonsignalfrequenzen codiert, wobei die Anzahl der vorhandenen Tonfre- quenzen der Zahl der Femsteuerkanäle entspricht. Den einzelnen Tonsignalfrequenzen werden im Femsteuerempfanger selektive Ein-Aus-Schaltstufen zugeordnet, die für die Ansteuerung der elektromechanischen Rudermaschinen zuständig sind - eine Propor- tionalsteuerung ist mit dem System nicht möglich. Mit der Entwicklung der äußerst lei- stungsfähigen und zuverlässigen Transistor-Tonkreisschaltstufe mit Rückkopplung durch den Münchner Hersteller von Femsteuergeräten (Graupner-Bellaphon) Hans Schumacher gelang der tonmodulierten Fernsteuerung der endgültige Markterfolg.

Damals war die Dreikanalsteuerung der Standard im Femsteuerbetrieb: Zwei Modulati- onskanäle sorgten zusammen mit einer selbstneutralisierenden Rudermaschine für die Links-Rechts-Steuerung, über den dritten Modulationskanal ließ sich mit Hilfe speziel- ler Servotypen eine Motorsteuerung realisieren.

Analoge AM- / FM-Proportionalsteuerung 27 MHz - 40 MHz

Bei den heute im Schiffs-, Flug- und Auto-Modellbau verwendeten Systemen (27; 35 bzw. 40 MHz) ist die Proportionalsteuerung auf Basis einer Pulsbreitenmodulation Standard. Diese wird meist mit PWM abgekürzt (engl.: Pulse Width Modulation). Der Impuls variiert heute mehrheitlich im Bereich von 1,5 ms ± 0,5 ms (System Multiplex: 1,6 ms ± 0,5 ms). Im zu steuernden Modell bedeuten zum Beispiel 1,0 ms links, 1 ,5 ms neutral und 2,0 ms rechts oder umgekehrt. Jedem Übertragungskanal ist nur eine Im- pulsbreite (ein Impuls) zugeordnet, die Impulse aller Kanäle werden zyklisch nachein- ander per PPM übertragen.

Im Sender wird jeder Impuls durch einen monostabilen Multivibrator erzeugt; das Po- tentiometer des Senderknüppels stellt mit einem festen Kondensator ein RC-Zeitglied dar. Im Empfänger besitzt jedes Servo ebenfalls einen monostabilen Multivibrator, wobei das zeitbestimmende Potentiometer hier auf der Drehachse des Servos montiert ist.

Die Differenz zwischen dem vom Sender kommenden und vom Servopotentiometer ge- lieferten Impuls ist positiv oder negativ und korrigiert die Drehrichtung des Servomo- tors entsprechend gegensätzlich. Das Servo kommt erst zur Ruhe, wenn Sende- und Servoimpuls gleich lang sind und die Impulsdifferenz zwischen beiden Null beträgt. Je nach Hersteller variiert die Pulsdefinition geringfügig (Systeme Multiplex/JR Propo/Futaba). Die Impulse mehrerer Kanäle (Funktionen) folgen unmittelbar aufein- ander. Zur Übertragung kommen allerdings nicht die Servopulse selbst. Das Ende eines Impulses bedeutet gleichzeitig den Anfang des Nächsten. Nur diese Übergangsflanke wird jeweils fabrikatabhängig als 0,2 ms bis 0,5 ms breiter Impuls gesendet und im Empfangsdecoder decodiert.

Das entstehende Impulstelegramm wird zyklisch wiederholt. Je nach Kanalzahl des Senders und Hersteller (2 bis 12 Kanäle) innerhalb von 15 bis 24 ms. Dabei entsteht ei- ne etwas längere Pause zwischen zwei aufeinanderfolgenden Impulsgruppen, die vom Empfänger zur Synchronisation genutzt wird. Da jeder Kanal innerhalb von 15 bis 24 ms wieder neu übertragen wird, reagiert das Modell sehr schnell, so dass der Steu- ernde je nach Latenzzeit des jeweiligen Systems das Gefühl einer abrupten oder nur ge- ringst verzögerten Reaktion haben kann.

Vorteil der Technik ist eine mit etwa 5 kHz extrem geringe HF-Bandbreite, gleich ob als Übertragungsverfahren AM oder FM genutzt wird. Diese genial einfache und lei- stungsfähige Technik wurde in den sechziger Jahren entwickelt. Erste Empfänger arbei- teten mit Amplitudenmodulation (AM), wobei der Sender teilweise oder vollständig ausgetastet wurde. Probleme mit der schnellen Nachregelbarkeit der Verstärkung des ZF-Verstärkers favorisieren jedoch die Frequenzmodulation (FM), die ab ca. 1970 in die Femsteuerungstechnik eingeführt wurde. Die Frequenzmodulation kommt mit enem Frequenzhub D f = f 1 - f 2 {\displaystyle \Delta {f}=f_{ l }-f_{2}} von ca.4 kHz aus, genug, um einem Frequenzraster von 20 kHz zu genügen.

Fernsteuerung mit Digitalsignalen : PCM

Im Wettkampfbereich setzt sich seit 2000 bei großen Flugmodellen die Pulscodemodu- lation (PCM) mehr und mehr durch. Hier werden alle Steuerinformationen als numeri- sche Werte in einem digitalen Datenstrom übertragen. Zusätzliche Prüfbits erlauben ei- ne Fehlerkorrektur und erhöhen die Übertragungssicherheit. Vorteile liegen in erhöhter Störsicherheit (fail save funktioniert bei digital-proportionalen Empfängern nicht si- eher) sowie in einer geringeren Nullpunktdrift der Servos und in höherer Präzision der Ausschläge. Nachteil ist ein mehrfach höherer Bandbreitenbedarf, da wesentlich mehr Impulse während eines Frames übertragen werden müssen, was eine höhere Signalfre- quenz zur Folge hat. Als Ausweg verwenden FM-PCM-Sender Datenkompressions- techniken, um die Datenmenge während eines Frames zu verringern. Je nach Flersteller werden z. B. nicht geänderte Servokanäle weggelassen oder mit geringerer Wiederhol- rate gesendet. Systembedingt kann es dadurch zu erhöhten Latenzzeiten kommen. In höher gelegenen Frequenzbändern können PCM-Anlagen höhere Bandbreiten nutzen, um vergleichbar schnell wie digital -proportionale Anlagen sein zu können. So wird bei- spielsweise das Frequenzband 2,4 GHz mit einem Kanalraster von 1024 kHz genutzt. PCM im ISM-Band

Mit der Einführung von PCM-Anlagen kam es gelegentlich zu Latenzzeitproblemen. Dies liegt am Dilemma des potentiell höheren Bandbreitenbedarfs. Verschiedenste Ver- suche scheiterten oft an der Verfügbarkeit geeigneter Frequenzbänder oder preisgünsti- ger Technologien. Mit der Freigabe von Frequenzen im 2,4-GHz-ISM-Band und der Verfügbarkeit preisgünstiger Komponenten durch die WLAN -Entwicklung im PC- Bereich waren folgerichtig Anwendungen auch zu Femsteuerzwecken zu erwarten. Aufgrund hochwertiger moderner Modulationsverfahren sind hier bedeutende techni- sche Fortschritte bei der Übertragungssicherheit möglich.

Es gibt mittlerweile von allen namhaften Herstellern unterschiedliche für die Fernsteue- rung genutzte Übertragungssysteme wie DSSS und FHSS, und Mischformen, die sich vor allem auch in der in Europa zulässigen Sendeleistung (DSSS 10 mW/MHz, FHSS 100 mW) unterscheiden, nachdem einige Zeit die rechtliche und technische Situation etwas unübersichtlich war.

Kleinere Wellenlängen führen aber zu einem neuen Problem, dem der reflexiven Auslö- schung, siehe Fresnelzone. Dabei erreicht eine z. B. am Boden reflektierte Welle den Empfänger gegenphasig zur direkten Welle, es kommt zur Signalauslöschung (Dead Points). Abhilfe schaffen dynamische Frequenzbandwechsel (Spread Spectrum) bzw. Diversity-Empfänger. Hier versorgen zwei unabhängige Antennen zwei unabhängige Empfänger, von denen der jeweils höhere Effektivwert dem Impuls-Decoder zugeleitet wird. In modernen Empfängern ist ein Doppelempfänger mit versetzten Antennen be- reits integriert. Eine Funkfernsteuerung ist konzeptionell und meist auch im Aufbau in die Komponenten Sender, Empfänger und Servos oder Steller gegliedert:

Sender: Gängige Sender haben zwei Steuerknüppel, die jeweils nach recht/links und oben/unten bewegt werden können. Eine Steuerfunktion (z. B. Höhenruder) wird auch als„Kanal“ oder„Funktion“ bezeichnet, aus den zwei Steuerknüppeln ergeben sich so- mit vier Funktionen. Weitere Kanäle werden ggf. über Dreh- und Schieberegler oder Schalter realisiert. Bei der Handhabung wird zwischen Handsendem unterschieden, bei denen die Daumen in der Regel auf den Steuerknüppeln aufliegen, und Pultsendem, die an einem Gurt getragen werden, und bei denen die Betätigung der Knüppel mit den Fingern bei aufliegendem Handballen erfolgt. Zu Steuerung von Auto- und Schiffsmo- dellen wird teils eine spezielle„Pistolen“-Bauform eingesetzt, wobei ein Drehring für das Ruder und ein Hebel für Gas/Motor genutzt wird.

Die Stellung der Hebel oder Regler wird intern durch Potentiometer abgenommen, ko- diert und in der HF-Stufe auf die Sendefrequenz moduliert.

In Europa sind die Frequenzbänder 27 MHz (Kurzwelle) und 35 MHz (VHF), 40 MHz (UKW), 433 MHz (UHF) und 2,4 GHz (kurze Mikrowellen) für Fernsteuerungen zuge- lassen, wobei die genaue Frequenz am Sender durch Quarze festgelegt wird. An moder- nen Sendern und Empfängern können die Frequenzen mittels PLL-Technik beliebig eingestellt werden. Bei den neuen Übertragungsverfahren, wie Bluetooth oder Spread Spektrum braucht sich Nutzer nicht mehr um einen Kanal zu kümmern.

Hier werden die Frequenzen dynamisch eingestellt, bzw. per eindeutiger Sender- und Empfänger-ID zugeordnet. In einigen Ländern sind auch Frequenzen im 41 -, 72- und im 75-MHz-Band zur Fernsteuerung von Modellen freigegeben. In Deutschland ist auch das 35-MHz-Band seit 2003 für Flugmodelle anmelde- und gebührenfrei. In jedem Frequenzband sind nur wohl definierte Frequenzkanäle verfügbar, die soweit auseinander liegen, dass Nachbarkanalstörungen vermieden werden, was speziell bei Flugzeugmodellen fatal wäre. Insbesondere im 27-MHz-Band muss auch mit weiteren Störungen z. B. durch den CB-Funk gerechnet werden, weshalb insbesondere für Flug- modelle das 35-MHz-Band bevorzugt wird.

Programmierbare sogenannte„Computersender“, meist mit LC-Display, ermöglichen die Abspeicherung von Servo-Parametem sowie Mischungen von Kanälen, die vor al- lem für Hubschrauber- und Flugmodelle gebraucht werden. Meist können Parameter- Sätze für eine Reihe von Modellen abgespeichert und schnell gewechselt werden. Wei- tere Funktionen hochwertiger Sender sind wählbare Modulationsverfahren (PCM, PPM), per Software wählbare Sendekanäle, austauschbare HF-Module für die unter- schiedlichen Bänder oder auch Funktionen zum Scannen freier Kanäle.

Empfänger: Der Empfänger soll geringes Gewicht und zuverlässigen Empfang kombi- nieren; an ihm werden Antenne, Stromversorgung und ein oder mehrere Servos oder andere Steuergeräte angeschlossen. Die Empfänger sind meist als Superheterodyn- Empfänger (Super), oft auch mit doppelter Frequenzumsetzung (Doppelsuper) ausge- legt. Der Empfänger benötigt einen zur Senderfrequenz (Senderquarz) passenden Emp- fangerquarz, dessen Frequenz allerdings um den Betrag der ersten Zwischenfrequenz (abhängig vom Empfängertyp) von der Sendefrequenz abweicht, da er die Frequenz des Referenzoszillators einstellt.

Servos und Steller: Servos werden im Allgemeinen nach Gewicht (ab 4 g, Standard 40 g) und Drehmoment (z. B. 25 Ncm) klassifiziert; weitere wichtige Parameter sind Stellzeit (z. B. 0,15 Sekunden für 60 Grad) und Getriebeausführung (Kunststoff/Metall, ggf. Kugellager). In aufwendigeren Servos kommen auch Glockenankermotoren sowie digitale Regelungen zum Einsatz. Für spezielle Anwendungen gibt es spezielle Servos: Segelwinde: Servo zur Betätigung von Seilzügen, meist mit sehr langem Stellweg; Stellservo: Servo mit langem Stellweg oder hohem Stellwinkel, meist langsam

Schaltservo: Servo mit festen oder einstellbaren Endpositionen, nicht proportional; Linearservo: Statt einer Abtriebswelle, die sich dreht, gibt es einen Hebel, der verscho- ben wird. Im Gegensatz zu einem normalen Servo ist der Weg proportional zur Hebel- stellung, nicht der Sinus des Weges.

Neben Servos werden zur Umsetzung von Steuersignalen empfängerseitig auch elektri- sche Steller oder Regler eingesetzt, die bei Modellen mit Elektromotoren etwa die Ge- schwindigkeit femsteuem. Neben Spannungs-Stellern werden auch Drehzahlregler ein- gesetzt, z. B. für Hubschrauber-Modelle, wo die Drehzahl des Motors auch bei verän- derlicher mechanischer Belastung konstant gehalten wird. Spezielle Regler für Brushless-Motoren regeln das elektrische Drehfeld direkt gemäß der Steuervorgabe (Drehstromregler).

Bei Modellen mit mehreren Motoren können Steller auch zur Richtungssteuerung ein- gesetzt werden. Beispiele sind z. B. Kettenfahrzeuge mit getrennt angetriebenen Ket- tenantrieben, zwei- oder mehrmotorige Modellflugzeuge oder Koaxial-Hubschraubem. In diesen Fällen kann auf mechanisch aufwändigere Servos und Ansteuerungen verzich- tet werden. Heute wird die Funkfernsteuerung auch in der Industrie für die Steuerung von z. B. Laufkränen sowie Rangier- und Kleinlokomotiven verwendet. Funkgesteuerte Roboter werden z. B. für das Entschärfen von Bomben benutzt.

62. Bitcoin

Es folgen weitere Ausführungsformen der Erfindung, insbesondere der Verwendungdes elektronischen Elements (E), die ein vereinfachtes, energisparendes Blockchainverfah- ren und eine verbesserte Authetifizierung eines Nutzers ermöglichen.

Bitcoin ist die weltweit führende Kryptowährung auf Basis eines dezentral organisierten Buchungssystems.Überweisungen werden kryptographisch legitimiert und über ein Netz gleichwertiger Rechner (peer-to-peer) abgewickelt. Anders als im klassischen Banksystem üblich, ist kein zentrales Clearing der Geldbewegungen notwendig. Eigen- tumsnachweise an Bitcoin werden in persönlichen digitalen Brieftaschen gespeichert. Der Kurs eines Bitcoin zu den gesetzlichen Zahlungsmitteln folgt dem Grundsatz der Preisbildung an der Börse. Sie hat die Aufgabe, Angebot und Nachfrage auszugleichen. Das Bitcoin-Zahlungssystem wurde von dem unter Pseudonym auftretenden Satoshi Nakamoto nach dessen Angaben im Jahr 2007 erfunden, der es im November 2008 in einer Veröffentlichung beschrieb und im Januar 2009 eine Open-Source- Referenzsoftware dazu veröffentlichte. Das Bitcoin-Netzwerk basiert auf einer von den Teilnehmern gemeinsam verwalteten dezentralen Datenbank, der Blockchain, in der al- le Transaktionen verzeichnet sind. Mit Hilfe kryptographischer Techniken wird sicher- gestellt, dass gültige Transaktionen mit Bitcoins nur vom jeweiligen Eigentümer vorge- nommen und Geldeinheiten nicht mehrfach ausgegeben werden können.

Die Bitcoin-Einheiten werden durch die Lösung kryptographischer Aufgaben, das so- genannte Mining (Schürfen), geschaffen. Das Konzept von Bitcoin wurde 2008 in ei- nem White Paper von Satoshi Nakamoto auf einer Mailingliste über Kryptographie vorgeschlagen. Bisher wurde nicht bekannt, ob es sich bei Satoshi Nakamoto um den Namen einer real existierenden Person, ein Pseudonym oder ein Sammelpseudonym für eine Gruppe von Personen handelt. Bitcoin ist der erste erfolgreiche Versuch, digitales Bargeld zu etablieren. Seit den 90er Jahren wird im Umfeld der Cypherpunk-Bewegung versucht, mithilfe kryptographischer Verfahren ein digitales Äquivalent zu Bargeld zu schaffen.

Nachdem verschiedene zentral organisierte Versuche - etwa eCash von David Chaum - gescheitert waren, dachten einige wenige Cypherpunks in den späten 90em über Me- thoden nach, um ein digitales Transaktionssystem zu schaffen, das ohne eine zentrale Autorität funktioniert. Hai Finneys Reusable Proof of Work, Wei Dais b-money und Nick Szabos bit gold waren wichtige Vorläufer von Bitcoin, auch wenn sie niemals über den Zustand einer theoretischen Skizze hinauskamen.

Mit dem Bitcoin-Whitepaper präsentierte Satoshi die erste vollständig ausformulierte Methode, um ein rein dezentrales Transaktionssystem für ein digitales Bargeld zu er- zeugen. In einem Forum schreibt er: „Das Kernproblem konventioneller Währungen ist das Ausmaß an Vertrauen, das nötig ist, damit sie funktionieren. Der Zentralbank muss vertraut werden, dass sie die Wäh- rung nicht entwertet, doch die Geschichte des Fiatgeldes ist voll von Verrat an diesem Vertrauen. Banken muss vertraut werden, dass sie unser Geld aufbewahren und es elek- tronisch transferieren, doch sie verleihen es in Wellen von Kreditblasen mit einem klei- nen Bruchteil an Deckung. Wir müssen den Banken unsere Privatsphäre anvertrauen, vertrauen, dass sie Identitätsdieben nicht die Möglichkeit geben, unsere Konten leerzu- räumen. Ihre massiven Zusatzkosten machen Micropayments unmöglich. Eine Generation früher hatten Nutzer von Time-Sharing-Computersystemen ein ähnli- ches Problem. Vor dem Aufkommen von starker Verschlüsselung mussten die User sich auf Passwortschutz für ihre Daten verlassen und dem Systemadministrator vertrau- en, dass dieser ihre Informationen vertraulich hielt. Diese Privatsphäre konnte jederzeit aufgehoben werden, wenn der Administrator zu dem Schluss kam, dass sie weniger wog als andere Belange, oder auf Anweisung seiner Vorgesetzten. Dann aber wurde starke Verschlüsselung für die Masse der Nutzer verfügbar, und Vertrauen war nicht länger nötig. Daten konnten auf eine Weise gesichert werden, die einen Zugriff durch Dritte - egal aus welchem Grund, egal mit wie guten Entschuldigungen, egal was sonst - unmöglich machten.Es ist Zeit, dass wir dasselbe mit Geld machen. Mit einer elektro- nischen Währung, die auf einem kryptografischen Beweis beruht und kein Vertrauen in Mittelsmänner benötigt, ist Geld sicher und kann mühelos transferiert werden.“ - Sa- toshi Nakamoto

Das Bitcoin-Netzwerk entstand am 3. Januar 2009 mit der Schöpfung der ersten 50 Bit- coin und dem„Block 0“, dem sogenannten Genesis-Block seiner„Chain“. In dessen einziger Transaktion („Coinbase“) wurde folgende Nachricht kodiert: „The Times 03/Jan/2009 Chancellor on brink of second bailout for banks.“

Dies zitiert die Schlagzeile der Titelseite der britischen Tageszeitung The Times vom 3. Januar 2009 und spielt auf die Banken- und Finanzkrise ab 2007 an. Einige Tage später wurde unter dem Pseudonym„Satoshi Nakamoto“ auch die erste Version der Bitcoin- Referenzsoftware Bitcoin Core veröffentlicht. Bitcoin kann sowohl als Zahlungssystem als auch als Geldeinheit betrachtet werden, die dezentral in einem Rechnemetz mit Hilfe eigener Software verwaltet bzw. geschöpft wird. Das System basiert auf einer von den Teilnehmern gemeinsam verwalteten dezen- tralen Datenbank, in der alle Transaktionen in einer Blockchain aufgezeichnet werden. Die einzige Bedingung für die Teilnahme ist ein Bitcoin-Client oder die Nutzung eines diese Funktionalität bereitstellenden Onlinedienstleisters. Dadurch unterliegt das Bit- coin-System keinen geographischen Beschränkungen - außer der Verfügbarkeit einer Internetverbindung - und kann länderübergreifend eingesetzt werden.

Das Zahlungssystem Bitcoin besteht zum einen aus einer Datenbank, der Blockchain, einer Art Journal, in der alle Bitcoin-Transaktionen verzeichnet sind. Das Bitcoin- Zahlungssystem verwendet ein Peer-to-Peer-Netzwerk, zu dem sich alle teilnehmenden Rechner mithilfe eines Programms verbinden. In diesem Bitcoin-Netzwerk werden alle Bitcoin-Transaktionen verzeichnet. Die Blockchain wird redundant und dezentral auf allen Bitcoin-Knoten gespeichert, verwaltet und laufend über das Bitcoin-Netzwerk ak- tualisiert.

Um das Bitcoin-System für Zahlungen nutzen zu können, wird eine digitale Brieftasche (englisch Wallet) sowie eine Intemetverbindung benötigt. Bitcoin-Wallets gibt es als Desktopanwendungen wie z. B. Bitcoin Core und Electrum sowie als Webanwendun- gen. Darüber hinaus ist auch die Verwendung von Hardware-Wallets möglich, separa- ten Geräten die z. B. über USB mit einem Computer verbunden werden und die in vie- len Szenarien eine erhöhte Sicherheit bieten. Zudem existieren Onlinedienste, die anbie- ten, die digitalen Brieftaschen der Nutzer zu verwalten.

Das persönliche Wallet enthält kryptographische Schlüssel, um Zahlungen zu autorisie- ren. Während zur Anfangszeit von Bitcoin die Benutzer ihre Schlüssel direkt verwaltet haben (z. B. als Liste in einer Datei oder auf Papier), haben sich aufgrund der Fehleran- fälligkeit dieses Verfahrens heute deterministische Wallets durchgesetzt, bei denen der Benutzer sich lediglich eine geheime Phrase merken muss („Seed“), aus der sich über einen Algorithmus deterministisch eine beliebige Anzahl von privaten Schlüsseln her- leiten lassen. Das digitale Wallet muss gegen Verlust, Ausspähen und Schadprogramme geschützt werden.

Zahlungen finden an pseudonyme Adressen statt, Hashwerte von öffentlichen Schlüs- seln, welche von der Wallet-Software erzeugt werden auf Grundlage der von ihr ver- walteten geheimen Schlüssel. Eine Identifizierung der Handelspartner ermöglicht Bit- coin nicht. Eine vollständige Anonymität garantiert das System allerdings auch nicht, da die Kette aller Transaktionen öffentlich in der Transaktionsgeschichte verzeichnet wird und eine Verknüpfung von Bitcoinadressen mit identifizierenden Informationen prinzipiell möglich ist.

Wie bei Zahlungen mit Warengeld kann eine Bitcoin-Transaktion nicht widerrufen werden, nachdem sie durch das Netzwerk bestätigt wurde. Die erste Bestätigung einer Zahlung dauert im Schnitt knapp zehn Minuten, kann im Einzelfall oder wenn nur sehr geringe Gebühren gezahlt werden auch mehrere Stunden dauern. Mit dem weiteren Verstreichen der Zeit kommen weitere Bestätigungen in Form gefundener Blöcke hin- zu, welche die Verbindlichkeit der Zahlung erhöhen. Zur Durchführung einer Zahlung kann eine Gebühr abgeführt werden, wobei Zahlungen mit höheren Gebühren bevor- zugt bestätigt werden.

Die virtuellen Geldeinheiten, Bitcoins genannt, werden dezentral in einem Rechnemetz geschaffen und verwaltet. Dieses Netzwerk wird aus Teilnehmern gebildet, die einen Bitcoin-Client ausführen und sich über das Internet miteinander verbinden. Vereinfacht betrachtet werden Bitcoins elektronisch zwischen den Teilnehmern ausgetauscht. Ihr Besitz wird durch den Besitz kryptographischer Schlüssel nachgewiesen. Jede Transak- tion von Geldeinheiten wird mit einer digitalen Signatur versehen und in einer öffentli- chen, vom gesamten Netzwerk betriebenen Datenbank, der Blockchain, aufgezeichnet. Die Bitcoin-Geldeinheiten können zurzeit auch an speziellen - meist unregulierten - Onlinebörsen, ähnlich dem Devisenmarkt, gegen andere Zahlungsmittel getauscht wer- den. Neue Einheiten des Kryptogeldes werden nach und nach durch das sogenannte Mining (dt. ,schürfen‘) erzeugt. Die Bitcoin-Teilnehmer können sich durch Aufwendung von Rechenleistung an der Erzeugung beteiligen. Dabei konkurrieren alle Teilnehmer um einen Betrag, der etwa alle zehn Minuten an einen der Teilnehmer ausgeschüttet wird, sowie um den Erwerb der Transaktionsgebühren. Das Ergebnis der aufwendigen Be- rechnung dient der Bestätigung von fremden Zahlungen und sichert den Betrieb des Bitcoin-Netzes. Die maximale Geldmenge ist durch das Netzwerkprotokoll auf 21 Mil- lionen Einheiten festgelegt und kann nicht durch einzelne Teilnehmer beeinflusst wer- den.

Wie bei Währungen konnten nach Einschätzungen von 2014 auch Bitcoins dazu ver- wendet werden, Güter oder Dienstleistungen zu bezahlen. Anfang März 2015 waren im OpenStreetMap-Datenbestand 6.284 Orte wie beispielsweise Geschäfte oder Hotels eingetragen, die Bitcoin als Zahlungsmittel akzeptierten. Alleine für den deutschen Markt waren 2016 mehr als 100 Akzeptanzstellen der verschiedensten Branchen ver- zeichnet.

Zu den größten Onlinediensten, die Bitcoin als Bezahlmittel akzeptierten, gehörten 2015 der Social News Aggregator Reddit, Microsoft Account, Overstock.com, Dell, [38] Expedia und Threema. Der Bloghoster WordPress.com akzeptierte Bitcoins als Zah- lungsoption bis Ende Februar 2015. Einige Pizzabestelldienste akzeptierten 2013 Bit- coins, indem sie Aufträge an große Lieferdienste Weitergaben, ebenso Essenslieferdien- ste für Restaurants. Auch 2017 konnte man mit Bitcoins noch Pizza bestellen, jedoch lag der Preis nach einer Recherche in der Washington Post von Anfang Dezember 2017 für eine Pizza bei 8,70 US-Dollar für Kunden, die mit US-Währung bezahlten, während Bitcoin-Zahler mit 0,0036 Bitcoin zu dem Zeitpunkt den Gegenwert von 34,12 US- Dollar bezahlen mussten. Im März 2019 hat der größte Onlinehändler der Schweiz Di- gitec Galaxus damit begonnen, Bitcoin und einige andere Kryptowährungen in den bei- den Onlineshops digitec.ch und galaxus.ch zu akzeptieren. Weiterhin wurde die Bezahlung in Bitcoins 2013 bei manchen Spieleentwicklem, kommunalen Dienstleistungen Hotels oder diversen Reiseveranstaltern angeboten. Ver- einzelt wurden Bitcoins im ersten Quartal 2013 für den Kauf von Autos und Häusern oder auch für Mietzahlungen genutzt. Das Museum für angewandte Kunst (MAK) in Wien war 2015 das erste Museum, das Bitcoins zum Kauf eines Kunstwerkes für die Museumssammlung nutzte.

Spenden von Bitcoins werden von NGOs und beispielsweise von WikiLeaks akzeptiert. Daneben wird die Währung zum Zweck des Micropayment von Organisationen ange- nommen, die sich für verschiedene gemeinnützige Zwecke einsetzen, sowie als Aner- kennung für kreative Inhalte im Web verschenkt. Bitcoins dienen auch als Einsatz für Glücksspiele.

Aufgrund der Pseudonymität dienen Bitcoins auch der Geldwäsche, den Lösegelder- pressungen bei Verschlüsselungstrojanem sowie als Zahlmittel für Waffen, Pornografie, illegale Drogen und Betrugsgüter bis hin zu Auftragsmorden über Darknet-Märkte.

Im Januar 2015 wurde der chinesische Yuan (Renminbi) mit einem Anteil von 71 % die Währung mit dem größten an Bitcoin-Börsen gehandelten Volumen vor US-Dollar und Euro. Allerdings ist einschränkend zu bemerken, dass die chinesischen Bitcoin-Börsen mit einer O-Prozent-Gebühr ein möglicherweise verfälschendes Bild erzeugen. Die Übersichtsseite bitcoinity.orglistet aus diesem Grund die Börsen seit Oktober 2015 nicht mehr nach dem Handelsvolumen, sondern nach der Tiefe der Orderbooks, wo- durch der Dollarmarkt an erster Stelle steht.

Am 10. Dezember 2017 startete der Handel mit Bitcoin-Terminkontrakten (Futures) an der US-Terminbörse CBOE, eine Woche später folgte er an der CME. Es können einer- seits Kursschwankungen des Bitcoins abgesichert werden, zum anderen auch an Kurs- steigerungen oder -Verlusten des Bitcoins partizipiert werden, ohne Eigentümer von Bitcoins zu sein. Der CBOE-Future umfasst einen Bitcoin, der CME-Kontrakt hat ein Volumen von fünf Bitcoins. An der CBOE wird der Preis an der Kryptowährungsbörse Gemini zugrunde gelegt, die CME bildet einen Referenzkurs aus den Notierungen an den vier Börsen Bitstamp, GDAX, IiBit und Kraken.

Im September 2011 schätzte ein Teilnehmer der Bitcoin-Community die Anzahl ver- schiedener innerhalb eines Tages aktiver Bitcoin Nodes auf 60.000. Die Schätzung ba- sierte auf der Auswertung bestimmter Nachrichten im Peer-to-Peer-Netzwerk. Bis Ok- tober 2012 sank die mit dieser Methode ermittelte Zahl auf knapp 20.000. Die Forscher Dorit Ron und Adi Shamir analysierten im Mai 2012 den Transaktionsgraphen und er- mittelten eine Zahl von 2,4 Millionen unabhängig verwendeten Adressen. Diese Zahl stellt eine Obergrenze der Nutzer dar, die bis zu dem Zeitpunkt eine Bitcoin- Transaktion durchgeführt haben.

Die aktivsten Einzelnutzer waren der Mining Pool Deepbit und die Handelsplattform Mt.Gox, verantwortlich für elf Prozent und sieben Prozent aller Bitcoin-Transaktionen. Die Referenzsoftware Bitcoin Core (auch bekannt als Bitcoin-Qt) erzielte Ende 2012 rund 70.000 Downloads monatlich und im März 2013 rund 270.000 Downloads. Die Zahl der Nutzer des Onlinedienstes My Wallet wurde im Dezember 2012 mit 80.000 angegeben.

Die reddit-Gruppe /r/bitcoin erreichte im September 2012 10.000 Nutzer, im März 2013 20.000 Nutzer und im Februar 2014 bereits 107.000 Nutzer. Eine Umfrage des Blogs netzpolitik.org im Januar 2013 ergab, dass 5,5 % der Leser Spenden per Bitcoin zahlen würden, während die Alternativen Flattr und PayPal 33,0 und 27,7 % erreichten.

Eine von der Universität Münster durchgeführte Studie zeigte, dass die durchschnittli- chen Bitcoin-Nutzer zwischen 25 und 44 Jahre alt sind und einen technischen Beruf ausüben. Bitcoins werden überwiegend genutzt, um zu bezahlen oder zu spekulieren. Wichtigste Motivation der Nutzer ist die Freude daran, mit einem innovativen System zu experimentieren. Laut der Studie spielen illegale Anwendungen nur eine geringe Rolle, wobei zu berücksichtigen ist, dass sie mit einer Grundgesamtheit von nur etwa 100 Personen, von denen 60 % aus Deutschland stammen, nicht repräsentativ für die in- ternationale Bitcoin-Szene ist.

Der erste Wechselkurs für Bitcoin lag bei 0,08 Cent (Dollar) und wurde von New Li- berty Standard auf Basis der Produktionskosten für das Mining kalkuliert. Man hätte nach dieser Kalkulation mit einem Dollar ungefähr 1310 Bitcoins kaufen können.

Bitcoins hatten anfangs keinen in anderen Währungen bezifferbaren Wert. 2010 wurden die ersten Wechselkurse durch Personen in den Bitcointalk-Foren ausgehandelt, der er- ste Warenaustausch gegen Bitcoin fand am 22. Mai 2010 statt; es wurden 2 Pizzen ge- gen 10.000 Bitcoin gehandelt. Der Wechselkurs von US-Dollar nach Bitcoins bewegte sich bis Ende 201 1 meistens nur im einstelligen Bereich, d. h., man erhielt - abgesehen von einem starken Kursanstieg im Juni 2011 - für unter 10 US-Dollar einen Bitcoin. Der Wechselkurs unterliegt von Anfang an starken Schwankungen.

Im Laufe des Jahres 2012 setzte ein Aufwärtstrend ein, der sich Anfang 2013 zusehends verstärkte. Dies trieb den Kurs Mitte April auf über 200 US-Dollar. Nach zwischenzeit- lichen Rückschlägen überschritt der Bitcoin am 30. November 2013 erstmals die 1.000- US-Dollar-Marke, sank aber dann, begleitet vom Konkurs der Bitcoin-Handelsplattform Mt.Gox, bis zu Beginn des Jahres 2015 auf unter 250 US-Dollar, bevor er im Oktober 2015 wieder langsam zu steigen begann. Anfang 2016 notierte er bei knapp 450 US- Dollar und stieg weiter, bis er das Jahr bei knapp 1.000 US-Dollar abschloss. [68] Im Jahr 2017 verzeichnete der Bitcoin bislang den höchsten Kapitalzufluss. Die rasante Kursentwicklung beschleunigte sich vor dem Start der Bitcoin-Futures Mitte Dezember. Am 17. Dezember wurden fast 20.000 US-Dollar erreicht. Das Jahr 2017 wurde mit ei- nem Stand von ca. 14.000 US-Dollar beendet.

2018 ging es unter Schwankungen abwärts. Ende November sank der Kurs auf unter 4.000 US-Dollar. Mitte Dezember 2018 wurde mit ca. 3.200 US-Dollar ein Tief mar- kiert. Anfang April 2019 setzte eine Erholung ein, die Marke von 5.000 US-Dollar wurde wieder überschritten. Nach Meinung von Experten trug Facebooks Plan einer ei- genen Intemetwährung dazu bei, den Bitcoin im Juni 2019 wieder über die Marke von 10.000 US-Dollar zu hieven. Nachdem in der Spitze knapp 13.000 US-Dollar erreicht wurden, ging der Kurs erneut zurück. Im Oktober 2019 steht er bei ca. 8000 Dollar.

Eine Fälschung von Einheiten oder Transaktionen ist durch das verwendete asymmetri- sche kryptographische Verfahren, das digitale Signaturen erzeugt und überprüft, mit zum jetzigen Zeitpunkt (2017) verfügbaren Mitteln nicht möglich. Das doppelte Ausge- ben derselben Bitcoins wird mittels des Proof-of-Work-Verfahrens verhindert. Ein An- greifer müsste im Durchschnitt mehr Rechenzeit als alle ehrlichen Bitcoin-Teilnehmer zusammen aufwenden, um den Proof of Work zu fälschen. Allerdings trifft dies nur auf Transaktionen zu, die bereits bestätigt wurden.

Kosten und Ausfuhrungsgeschwindigkeit: Zahlungen können ohne Mitwirkung von Fi- nanzinstituten zwischen den Beteiligten abgewickelt werden. Damit eine Transaktion bestätigt wird, spezifiziert der Ersteller eine Gebühr, die er in der Regel von der Ausla- stung des Netzwerks abhängig macht. Zu einer Zeit großer Auslastung (Stand Dezem- ber 2017) lag diese bei etwa 19,50€ (bei einem Bitcoin-Kurs von 13.000 6 und 1 ,5 mBTC pro 266 Byte-Transaktion).

In der Vergangenheit war dieses Transaktionsentgelt wesentlich niedriger und ist 2018 wieder deutlich gefallen. Wird eine höhere Gebühr ausgewählt, kann das den Bestäti- gungsvorgang durch eine höhere Priorität bei der Berechnung beschleunigen, während das - technisch derzeit zum Teil noch mögliche - Weglassen des Entgelts die Bestäti- gungsdauer verlängert beziehungsweise die Durchführung der Transaktion unsicher macht. Das Entgelt wird demjenigen Teilnehmer („Miner“) gutgeschrieben, der einen neuen Block mit dieser Transaktion erzeugt. Dadurch soll verhindert werden, dass das Netzwerk gezielt durch sehr viele kleine Transaktionen überlastet wird. Auf lange Sicht sind diese Entgelte als Belohnung für den Erhalt des Netzes durch Bereitstellung von Rechenleistung geplant.

Die Bestätigung einer Zahlung dauert so lange wie die Erzeugung eines neuen Blocks, also im Mittel 10 Minuten. Allerdings besteht im System nicht sofort Konsens über eine einzelne Bestätigung. Jede weitere Bestätigung, die wieder ca. 10 Minuten dauert, er- höht die Wahrscheinlichkeit, dass die Zahlung dauerhaft erhalten bleibt. Nach sechs aufeinanderfolgenden Bestätigungen gilt eine Zahlung als hinreichend verbindlich be- stätigt.

Dezentralität : Das System ist aufgrund der Peer-to-Peer-Struktur völlig dezentral, ähn- lich Systemen wie BitTorrent. Eine Einflussnahme auf die Geldmenge würde erfordern, dass die Mehrheit der Mining-Rechenleistung mit veränderter Software erfolgt, da sonst ein nicht allgemein anerkannter Fork von Protokoll und Zahlungseinheit entstehen wür- de.

Schreibweise, Symbole und Darstellung : In Anlehnung an die Dreibuchstaben-Codes der ISO 4217 sind BTC und XBT die zurzeit gängigen Abkürzungen für die Währungs- einheit. Einige Websites verwenden das Symbol des thailändischen Bäht $ (U+0E3F), das ein B mit einem senkrechten Strich darstellt, wobei auch die Schreibweise mit zwei Strichen verwendet wird. Für kleine Anteile wird neben„Bitcent“ in Anlehnung an die wissenschaftliche Notation das Einheitenpräfix„milli“ und die Bezeichnung mBTC verwendet. Die kleinste im aktuellen Protokoll darstellbare Unterteilung von 1/100.000.000 wurde zu Ehren des Erfinders als„Satoshi“ benannt. Auf Darstellungen von Bitcoin-Münzen ist teilweise der lateinische Spruch„vires in numeris“ zu lesen, zu deutsch„Stärke in Zahlen“.

Das Bitcoin-Symbol wird im Unicodesystem durch den hexadezimalen Code U+20BF (im Unicodeblock Währungszeichen) repräsentiert. Irreversibilität von Transaktionen: In der Blockchain bestätigte Zahlungen mit Bitcoin können nicht rückgängig gemacht werden. Das stellt im Online-Handel einen Vorteil für den Verkäufer dar, da Rückbu- chungen von Zahlungen bei betrügerischen Käufen nicht möglich sind.

Einmal falsch überwiesenes Geld kann dadurch aber auch nicht durch eine zentrale In- stanz zurücküberwiesen werden. Innerhalb des Bitcoin-Systems ist der Empfänger ano- nym und kann auch nicht kontaktiert werden. Falls eine Zahlung irrtümlich erfolgt, ist man daher entweder darauf angewiesen, dass der Empfänger seine Identität außerhalb des Bitcoin-Systems preisgegeben hat oder allgemein Wohlwollen beweist und die un- erwartete Einzahlung auf sein Konto zurücküberweist. Die versehentliche Eingabe von falschen Adressen aufgrund von Tippfehlern wird durch die Auswertung einer Prüf- summe verhindert.

Ein Problem bei der Einführung von Bitcoin als Währung war die anfängliche Vertei- lung der Geldeinheiten. Moderne staatliche und private Währungen sind - im Gegen- satz zu Bitcoin - durch ein Zahlungsversprechen der ausgebenden Stelle gedeckt. Da Bitcoin als neues Zahlungsmittel anfangs kein Vertrauen genoss und der Rücktausch von keiner Stelle garantiert wird, waren Bitcoins anfänglich praktisch wertlos. Auch ei- ne Nutzbarkeit war aufgrund des fehlenden Angebots an Waren gegen Bezahlung in Bitcoins zunächst nicht gegeben.

Im Fall von Bitcoin werden neue Einheiten nach einem Prinzip verteilt, das die Unter- stützung des Netzwerks durch Bereitstellen von Rechenleistung belohnt (siehe Ab- schnitt Mining). Eine weitere Eigenschaft des Systems ist es, dass im Laufe der Zeit immer weniger Geldeinheiten erzeugt werden. Dadurch konnten die Teilnehmer in der Anfangsphase des Systems erheblich schneller und mit geringerem Aufwand Geldein- heiten generieren. Mit fortschreitender Zeit und steigender Teilnehmerzahl bzw. Re- chenleistung wird es für den einzelnen Teilnehmer zunehmend schwieriger, Bitcoins zu erzeugen.

Eine hohe sechsstellige Zahl von Bitcoins (Schätzungen reichen von 600.000 bis 1.000.000) wurde in der Anfangszeit vom Bitcoin-Erfmder Satoshi Nakamoto erzeugt, wurde aber seit seinem Rückzug aus dem Bitcoin-Projekt nicht eingesetzt. Cameron und Tyler Winklevoss gaben im April 2013 an, 1 % der damals existierenden Bitcoins (ca. 100.000) erworben zu haben.

Im März 2019 wurden knapp 16 % aller Bitcoins von 100 Adressen bzw. etwa 41 % al- ler Bitcoins von 1900 Adressen gehalten. [84] Diese Statistik ist allerdings wenig aus- sagekräftig für die Verteilung von Guthaben, da zum einen einzelne Adressen die Gut- haben zahlreicher Individuen repräsentieren können (Cold Storage von Tauschbörsen), zum anderen sich das Guthaben einzelner Entitäten typischerweise auf viele verschie- dene Adressen verteilt.

Bitcoin-Adressen wie 3D2oetdNuZUqQHPJmcMDDHYoqkyNVsFk9r sind Public- Key-Hashwerte, die man als Pseudonyme auffassen kann. Als solche können sie nicht direkt den wirklichen Identitäten von Zahlern und Zahlungsempfängern zugeordnet werden. Bitcoin-Transaktionen sind somit ohne weitere Informationen nicht genauer nachvollziehbar und gewährleisten eine teilweise Anonymität. Für eine vollständige Anonymität ist neben der Pseudonymität jedoch noch eine weitere Voraussetzung nötig, die fehlende Rückverfolgbarkeit (unlinkability). Das bedeutet, dass Transaktionen eines bestimmten Nutzers, bzw. seine Interaktionen mit dem System, nicht miteinander ver- knüpft werden können. Wenn zum Beispiel eine Bitcoin-Adresse oft wieder verwendet wird, oder Zahlungsvorgänge von unbekannten Adressen mit bereits bekannten Adres- sen zusammen ausgeführt werden, ergeben sich Ansatzpunkte für eine Rückverfolgbar- keit. Eine Deanonymisierung der Vorgänge auf der Bitcoin-Blockchain ist dann zum Teil möglich.

Grundsätzlich baut Bitcoin auf der etablierten Infrastruktur zur Gewährleistung der Anonymität im Internet auf und bietet einen weitaus besseren Schutz der Privatsphäre als konventionelle Zahlungswege. Die durch Bitcoin gewährte Anonymität ist jedoch begrenzt und bietet von sich aus keine zuverlässige Absicherung gegen professionelle Ermittlungsmethoden. Zur Abwicklung von Geschäften muss normalerweise einer der Geschäftspartner zumindest teilweise seine Anonymität aufgeben. Alle Transaktionen zwischen zwei Adressen sind öffentlich protokolliert und werden dauerhaft im gesam- ten Netzwerk gespeichert. Spätere Empfänger von Teilbeträgen können den jeweils letzten Besitzer beispielsweise bei Behörden nennen, die dann die Kette der Transaktio- nen verfolgen können. Daher verhindert Bitcoin nicht unbedingt den Nachweis von illegalen Geschäften. Ins- besondere können Ermittlungsbehörden Zugriff auf Intemetverbindungsdaten, Postsen- dungen, virtuelle Fingerabdrücke (Browserprofile) und Kontaktdaten von früheren oder späteren Beteiligten an einer Transaktionskette erhalten und verknüpfen. Wenn an einer Stelle eine Verbindung zu einer Person geschaffen wird, etwa durch eine abgefangene Warensendung oder eine erbrachte Dienstleistung, kann allen Transaktionen zu der zu- geordneten Adresse nachgegangen werden. Die Möglichkeiten einer Verfolgung von Transaktionen sind also wesentlich weitreichender als bei Bargeld. Betreiber von Bör- sen, die den Umtausch von Bitcoin in andere Währungen ermöglichen, sind darüber hinaus meist Bestimmungen zur Bekämpfung von Geldwäsche unterworfen. Darüber hinaus sehen sich beispielsweise die Betreiber von Börsen auch keineswegs verpflich- tet, Guthaben freizugeben, die möglicherweise illegal erworben wurden.

Eine experimentelle Analyse von Zahlungsflüssen im Bitcoin-System zeigte, dass es praktisch möglich ist, Ursprünge von Transaktionsketten einschlägig bekannten Adress- Pools zuzuordnen. Gezeigt wird das anhand von Zahlungen an Wikileaks. Dagegen war es bisher, auch wenn es sich um große Beträge handelte, nicht möglich, anhand von öf- fentlichen Daten Personen sicher zu identifizieren, die sich illegal Guthaben durch Aus- spähen der zugeordneten Schlüssel übertragen haben. Jedoch versucht man eine solche Analyse zu erschweren, indem man die Abwicklung von Bitcoin-Transaktionen über das Tor-Netzwerk anonymisiert. Dabei wird versucht, mit sogenannten Bitcoin-Mixem oder -Tumblem (to tumble: durcheinanderwirbeln), die einer Black Box gleichen, „schmutzige“ Bitcoins in unverfolgbare Bitcoins zu verwandeln.

Während fast alle Transaktionen öffentlich in der Blockchain gespeichert werden, wird der Besitz von Bitcoins durch private Schlüssel nachgewiesen, die ausschließlich dem Besitzer zugänglich sind. Bei einem Verlust der Schlüssel sind die damit verbundenen Bitcoins sowohl für den Besitzer als auch das gesamte Netzwerk verloren. Die auf 21 Mio. Bitcoins begrenzte Geldmenge reduziert sich um derartige Beträge, allerdings bleiben diese im Fall eines Wiederauffmdens von Schlüsseln unbeschränkt gültig. Durch das Ausspähen der Schlüssel erhält ein Angreifer ebenso Zugriff auf das Gutha- ben. Es ist nicht ausgeschlossen, dass solche umgangssprachlich als„gestohlen“ be- zeichneten Bitcoins in späteren Transaktionen zugeordnet werden können, jedoch wer- den diese (analog zu Geld) als fungibel betrachtet und eine Identifizierung der„Diebe“ ist ähnlich wie bei Bargeld nur in Ausnahmefällen möglich.

Aktuelle Software erlaubt die Verschlüsselung der elektronischen Geldbörse. Das schützt zwar bei einem Diebstahl des benutzten Computers, jedoch nicht vor einer Kompromittierung durch Malware und Keylogger. Im Fall einer Entwendung des Rechners kann - vorausgesetzt ein Backup ist vorhanden - das Guthaben vor Nutzung durch den Dieb an eine neu erzeugte eigene Adresse übermittelt werden.

Eine weitere Sicherungsstrategie ist, die Wallet-Datei auf einem getrennten Speicher- medium (z. B. auf einem USB-Stick) aufzubewahren. Für eine Gutschrift ist ein Zugriff auf das Wallet nicht erforderlich, und ohne die darin befindlichen Schlüssel können keine Beträge abgebucht werden.

Die privaten Schlüssel für das Guthaben müssen nicht zwangsläufig auf einem elektro- nischen Medium gespeichert werden. Sie können auch an eine Adresse übertragen wer- den, deren privater Schlüssel ausschließlich in physischer Form hinterlegt ist, z. B. in- dem man ihn auf einem Stück Papier notiert (auch paper wallet genannt). Dieser Schlüssel kann jederzeit von einer Bitcoin-Software importiert werden, um die Bitcoins auszugeben.

So wurden neben Papier-Wallets bspw. auch Münzen und Schallplattenangefertigt, die einen Schlüssel mit einem bestimmten Betrag an Bitcoins enthalten und so praktisch wie Bargeld getauscht werden können. Umgekehrt bringen sie jedoch auch die gleichen Risiken wie Bargeld mit sich, z. B. Zerstörung oder Verlust.

Eine Überprüfung der Integrität der Software wird dadurch ermöglicht, dass sie als Open-Source-Software im Quelltext verfügbar ist. Die Überprüfung der Authentizität von heruntergeladenen binären Releases wird anhand der in der FLOSS-Community üblichen digitalen Signaturen und des Vergleichs kryptographi scher Hashfunktionen vor genommen.

Im Bitcoin-System kann jeder Teilnehmer eine unbegrenzte Anzahl Bitcoin -Konten er- stellen, ohne dass das von einer unabhängigen Instanz geprüft oder in irgendeiner Form überwacht wird. In Verbindung mit der technischen Eigenschaft der Nichtumkehrbar- keit von Transaktionen sind je nach Rahmenbedingungen Betrugsszenarien oder Mani- pulationen denkbar, wie der Austausch der Bitcoin-Adresse in elektronisch versandten Rechnungen durch Man-in-the-Middle-Angriffe, Rechnungsfälschungen oder betrügeri- sche Abrede eines Zahlungsempfangs. Diese Anfälligkeit ist prinzipbedingt: Da sich Bitcoin nicht auf Institutionen wie Banken oder Gerichte stützt, an die Vertrauen dele- giert wird, muss auch das Vertrauen zwischen den Geschäftspartnern individuell herge- stellt werden.

Bei umfangreicheren Geschäften mit einander noch unbekannten Handelspartnern kann es sicherer sein, wenn die Empfängeradresse belegbar nachvollzogen werden kann. [96] Für Person-zu-Person-Geldgeschäfte wurde dafür mit Bitcoin-OTC bereits früh ein ei- genes, auf GnuPG basierendes, Web of Trust etabliert, dessen Nutzung allerdings tech- nisch relativ anspruchsvoll ist.

Neuere Bitcoin-Clients bieten dafür eine Funktion an, mit der Textnachrichten vom Sender durch starke asymmetrische Verschlüsselung anhand einer ihm gehörenden öf- fentlich bekannten Adresse signiert werden können. Der Empfänger kann umgekehrt in der Bitcoin-Software die Zugehörigkeit zu dieser Adresse überprüfen. Die Integrität der öffentlichen Adresse wiederum kann beispielsweise anhand des dezentralen Web of Trust von GnuPG oder auch einer hierarchischen Public-Key-Infrastruktur und (bei Webseiten) durch SSL-Zertifikate nachgewiesen werden.

Ein erhöhtes Risiko besteht jedoch für Anbieter, die Bitcoin gegen Geld handeln. Hier bietet z. B. der Eingang einer Zahlung per Kreditkarte (sogenannten„weichen“ Zah- lungsmittein) keinen Schutz dagegen, dass die Zahlung nach der Transaktion der Bit- coins rückgängig gemacht wird. Der Verkäufer hat in diesen Fällen praktisch keine Möglichkeit, seinen Anspruch durchzusetzen. Dazu kommt, dass Dienste wie PayPal oder Skrill in ihren allgemeinen Geschäftsbedingungen derartige Geschäfte explizit un- tersagen und der Verkäufer damit rechnen muss, dass sein Konto eingefroren und Gut- haben einbehalten wird.

Zum Empfangen und Überweisen von Bitcoins kann eine lokale Bitcoin-Software oder eine Onlineplattform benutzt werden. Bitcoins können entweder bei Onlinebörsen oder Einzelpersonen gegen andere Währungen, elektronisches Geld oder auch Paysafecards getauscht werden. Dabei fallen in der Regel Gebühren an, die je nach Anbieter variie- ren. Bei Onlinebörsen ist der Betreiber der Börse der Handelspartner, dem der Kunde auch sein Geld anvertraut. Die Handelsgebühren liegen typischerweise bei rund 0,2- 1 % des getauschten Betrags.

Die Tauschbörsen sind bisher nicht reguliert, unterliegen jedoch meist Auflagen zur Er- schwerung von Geldwäsche, z. B. in Form von Auszahlungslimits oder Know-your- customer-Prinzipien. Zum Handeln größerer Beträge ist in der Regel ein Identitäts- nachweis erforderlich.

Ein- bzw. Auszahlungen erfolgen mit Bitcoins direkt durch die Überweisung auf das bzw. von dem Kunden-Wallet beim Anbieter. Bei anderen Währungen können Einzah- lungen häufig als SEPA-Überweisungen vorgenommen werden. Guthaben beim Bör- senbetreiber kann auf das eigene Bankkonto wieder ausgezahlt werden, dabei können jedoch zusätzliche Gebühren anfallen. Es existieren jedoch auch dezentralisierte Börsen (DEX), bei denen vollständig anonym Bitcoins und andere Kryptowährungen gehandelt werden können. Ein Beispiel hierfür ist bisq.network, eine open-source-Software, wel- che Bitcoins P2P über das Tor-Netzwerk handelt.

Die Sicherung der Einlagen ist nicht vorgeschrieben und wird so dem jeweiligen Anbie- ter überlassen. Die Professionalität und auch Seriosität der Anbieter variiert dabei stark. Da große Beträge und die leichte Beweglichkeit von Bitcoins einen starken Anreiz für Angreifer liefern, Plattformen mit hohen Guthaben zu hacken, kam es in der Vergan- genheit zu folgenschweren Einbrüchen, bei denen Kunden mitunter ihre gesamten Ein- lagen verloren. Aufgrund vielfach aufgetretener Probleme im Bereich Informationssi- cherheit werben einige Börsen mit verbesserter Sicherheit und bieten teilweise Zertifi- zierungen ihrer Websites, Zwei-Faktor-Authentifizierungsverfahren, Haftung für verlo- rene Einlagen bis hin zu einer regulären Einlagensicherung für Fiat-Geldbeträge.

Außerdem gibt es Dienste, die als Wechselstuben einen direkten Umtausch von gängi- gen Währungen, e-Currencies, und Paysafecards in Bitcoins anbieten. Die Kurse sind vorgegeben, enthaltene Gebühren sind höher als bei den Exchanges und betragen etwa 1,5 bis 5 %. Diese Services erfordern typischerweise keine Registrierung, so dass man die Bitcoins schnell erwerben und auf sein Wallet überweisen lassen kann.

Es existieren virtuelle„Handelsplätze“, bei denen Interessenten Kauf- und Verkaufsan- gebote anmelden können. Die Transaktion findet dabei (ähnlich wie oft bei Intemetauk- tionsplattformen) zwischen zwei Privatpersonen statt. Einige Anbieter sichern Transak- tionen einseitig durch die Hinterlegung der zu verkaufenden Bitcoins ab und geben die- se erst frei, wenn der Verkäufer den Zahlungseingang bestätigt. Bei dieser Form des Handels besteht sowohl für den Käufer als auch den Verkäufer ein gewisses Risiko, dass der Handelspartner oder auch der Treuhänder sich nicht ehrlich verhalten.

Die älteste Erwerbsmöglichkeit ist ein IRC-Kanal namens„#bitcoin-otc“, wo Tausch- angebote zwischen Privatpersonen registriert werden können. Vertrauen wird herge- stellt durch ein GnuPG-basiertes Bewertungssystem. Dieses Medium ist technisch ver- gleichsweise anspruchsvoll.

Außerdem existieren z. B. mit den Websites localbitcoins.com regional gegliederte Verzeichnisse von Personen, die Bitcoins in ihrem Wohnort zum Tausch gegen Bargeld anbieten, beispielsweise als Betreiber eines Intemetcafes. Die überwiegende Mehrheit der Bitcoin-Nutzer weltweit befindet sich (Stand Ende 2012) in den USA, Kanada, Westeuropa, Australien und den ostasiatischen Pazifikanrainem wie Japan, doch es gibt auch in Ländern wie Malaysia, Südafrika, Saudi-Arabien, Venezuela oder Brasilien schon Tauschmöglichkeiten.

Eines der Risiken bei der Nutzung von Bitcoin-Börsen und Handelsplattformen ist die Ausspähung von Passwörtern durch Erraten oder Cracken schwacher Passwörter oder Malware in Form von Keyloggem. Beim gängigen Onlinebanking wird deswegen in al- ler Regel eine Zwei-Faktor-Authentifizierung genutzt, beispielsweise in Form von Passwort in Kombination mit mTAN. Eine solche Absicherung durch Implementierun- gen wie Google Authenticator oder Yubikey wird inzwischen auch von zahlreichen Tauschbörsen angeboten. Hierbei steht, durch fehlende zentrale Regulierungsinstanzen, jedem Betreiber offen, ob und für welche Zwei-Faktor-Authentifizierung er sich ent- scheidet: Seiten wie Bitpanda, Bitcoin.de oder Coinbase z. B. kombinieren den Log-In- Prozess mit der Bestätigung per Handynummer während andere, wie BTCoin. Systems auf die für online Banking übliche mTAN setzen.

Electrum mit Ansicht der Transaktionsgeschichte und des resultierenden Saldos Ein Bitcoin-Wallet ist eine spezielle Software für das Bitcoin-System. Die Wallets un- terscheiden sich bezüglich der Anzahl an Funktionen und bezüglich der Handhabung der Blockchain. Diese stellt ein Verzeichnis aller bisherigen Transaktionen dar, das bei vollständigem Herunterladen über 190 Gigabyte Speicherplatz und eine entsprechend lange Zeit benötigt.

Das Wallet (englisch für„Geldbeutel“ oder„Portemonnaie“) steht sinnbildlich für eine Art virtuellen Geldbeutel, der die Bitcoins eines Teilnehmers enthält. Da Bitcoins je- doch nur innerhalb der Blockchain existieren und transferiert werden können, ist das Wallet eher vergleichbar mit einer Kreditkarte, die bestimmte Daten enthält, mit denen der Kunde Zahlungen tätigen kann, selbst aber kein Geld enthält.

Das Wallet ist ein digitaler Schlüsselbund, mit dem ein Benutzer nachweist, dass ihm eine gewisse Menge Bitcoins gehören, und der es ihm erlaubt, diese zu überweisen. Die Adressen zum Empfang von Zahlungen werden aus den Schlüsseln erzeugt. Es können beliebig viele Schlüssel - und damit auch Adressen - generiert werden.

Für Smartphones existieren mehrere Bitcoin-Wallets mit Zusatzfunktionen, die für den mobilen Betrieb nützlich sind. Die Apps laden typischerweise nach der Installation eine reduzierte Fassung der Blockchain herunter. Eine Bitcoin-Adresse des Wallets auf dem Smartphone kann als QR-Code angezeigt werden. Dieser enthält einen speziellen Uni- form Resource Identifier mit der benötigten Bitcoin-Adresse sowie dem Betrag. [109] Zum Ausführen von Zahlungen können QR-Codes mit der Kamera des Telefons ge- scannt werden. Es ist auch möglich, Zahlungen später zu versenden, wenn gerade keine Intemetverbindung besteht. Zusätzlich bestehen Optionen zur Sicherung der Wallet.

Webbasierte und hybride Wallets: Daneben existiert eine Vielzahl von Webdiensten, die eine Online-Wallet anbieten. In diesem Fall werden die Zugangsdaten nicht auf der Hardware des Benutzers, sondern beim Online-Wallet-Anbieter gespeichert, die Sicher- heit des Guthabens hängt hier völlig von der serverseitigen Sicherheit und der (schwer verifizierbaren) Vertrauenswürdigkeit des Anbieters ab. Ein bösartiger Anbieter oder eine Verletzung der Serversicherheit kann dazu fuhren, dass anvertraute Bitcoins ge- stohlen werden. Ein Beispiel für einen solchen Sicherheitsverstoß ist der Fall von Mt.Gox aus dem Jahr 2011. Dies führte zu dem Meme "Not your keys, not your bit- coin".

Eine Alternative zum Beispiel für mobile Plattformen, für die kein regulärer Bitcoin- Client angeboten wird, sind hybride Wallets. Bei diesen wird der auszuführende Code vom Server des Anbieters geladen, die geheimen Schlüssel werden jedoch clientseitig verschlüsselt und übertragen.

Die Full Nodes von Bitcoin sind über ein Peer-to-Peer-Netzwerk verbunden. Über die- ses werden Blöcke, Transaktionen und verschiedene weitere Nachrichten ausgetauscht. Ein einzelner Bitcoin-Client unterhält eine feste Anzahl von aktuell 8 ausgehenden Verbindungen sowie eine variable Anzahl von bis zu 117 eingehende Verbindungen. Dadurch entsteht ein unstrukturiertes Overlay-Netz, in dem alle Bitcoin-Nodes unter- einander verbunden sind. In einigen Situationen wird die Information von ausgehenden Verbindungen bevorzugt verarbeitet, da diese schwerer durch einen Angreifer zu kon- trollieren sind.

Um sich mit dem Bitcoin-Netz zu verbinden, benötigt die Bitcoin-Software[108] die Kenntnis von IP-Adressen anderer Bitcoin-Nodes. Für die initiale Suche nach anderen Nodes (Bootstrapp ing) wird das Domain Name System verwendet. Der Bitcoin-Client löst einen Domainnamen auf, um die IP-Adressen mehrerer anderer Bitcoin-Nodes zu erhalten. Die für das Bootstrapping verwendeten Domainnamen sind in der Bitcoin- Software fest integriert und die Services werden von Mitgliedern der Bitcoin- Community betrieben. Bereits verbundene Bitcoin-Nodes tauschen bekannte IP- Adressen untereinander aus. Schlägt das Bootstrapping fehl, greift der Bitcoin-Client auf eine mitgelieferte Liste von Bitcoin-Nodes zu.

Transaktionen und Blöcke werden über einen Flooding-Algorithmus innerhalb des Netzwerk verbreitet und standardmäßig über TCP versandt. Zeitkritisch ist hierbei vor allem der Versand neuer, durch Mining gefundener Blöcke, da die anderen Bitcoin- Miner bei Verzögerungen durch die Netzwerkübermittlung ihre Rechenleistung zeit- weise auf einer älteren Version der Blockchain vergeuden würden. Daher existieren verschiedene technische Maßnahmen um den Versand von Blöcken zu beschleunigen, wie das von Minern verwendete, auf UDP basierende FIBRE-Netzwerk[127] oder das Konzept von„Kompakten Blöcken“, bei denen sich die einzelnen Nodes Teile von neu- en Blöcken aus im Mempool gespeicherten Transaktionen selbst zusammensetzen und so die Übertragung beschleunigen und die über das Netzwerk versendete Datenmenge verringern.

Neben dem eigentlichen sogenannten Mainnet existiert ein sogenanntes Testnet mit se- parater Blockchain, welches für das Testen von neuen Funktionen oder zum Experi- mentieren geeignet ist. Das Testnet wurde bisher zweimal zurückgesetzt. Wesentliche Unterschiede zu dem Mainnet sind die Anpassung der Schwierigkeit, sowie der Preis von Testnet Bitcoins. Testnet Bitcoins lassen sich über das Internet kostenlos beziehen, da sie faktisch keinen Wert haben.

Die bestimmende Blockchain (schwarz) besteht aus der längsten Folge von Blöcken ausgehend vom Ursprung zum aktuellen Block. Alternative Ketten verwaisen (lila), so- bald sie kürzer als eine andere Kette sind.Die Blockchain (deutsch„Blockkette“) ist das Journal, in dem alle Bitcoin-Transaktionen verzeichnet werden. Sie besteht aus einer Reihe von Datenblöcken, in denen jeweils eine oder mehrere Transaktionen zusam- mengefasst und mit einer Prüfsumme versehen sind. Neue Blöcke werden in einem re- chenintensiven Prozess erschaffen, der sich Mining nennt, und anschließend über das Netzwerk an die Teilnehmer verbreitet.

Die Transaktionen eines Blocks werden durch einen Merkle-Baum paarweise miteinan- der gehasht und nur der letzte Hashwert, der Root-Hash, als Prüfsumme im Header des Blocks vermerkt. Die Blöcke werden dann mithilfe dieses Root-Hashes verkettet. Jeder Block enthält im Header den Hash des gesamten vorherigen Blockheaders, so ist die Reihenfolge der Blöcke eindeutig festgelegt. Außerdem ist dadurch auch das nachträg- liche Modifizieren vorangegangener Blöcke bzw. Transaktionen praktisch ausgeschlos- sen, da die Hashes aller nachfolgenden Blöcke in kurzer Zeit ebenfalls neu berechnet werden müssten. Der erste Block in der Blockchain ist vorgegeben und wird Genesis- block genannt.

Die Blockchain hat derzeit eine Größe von über 190 GB (Stand: November 2018). Sie muss von neu beitretenden Bitcoin-Nodes vollständig heruntergeladen und dabei in der Regel auch auf Gültigkeit geprüft werden. Zudem enthält die Bitcoin-Software eine fest integrierte Liste von wohlbekannten Blöcken aus der Vergangenheit, die mit der herun- tergeladenen Blockchain übereinstimmen müssen. Im Original-Paper wurde die Mög- lichkeit beschrieben, Speicherplatz einzusparen, indem man ältere Transaktionen aus den Blöcken entfernt und nur den Header mit dem Root-Hash behält. :4 Diese Funktio- nalität ist jedoch bis jetzt nicht im Bitcoin Core implementiert, so dass die gesamte Transaktionshistorie bis zu den Anfängen nachvollziehbar ist. Beim Erzeugen von Blöcken (das auch Mining genannt wird) kann es Vorkommen, dass mehrere Bitcoin-Nodes gleichzeitig einen gültigen neuen Block erzeugen. Empfangen die anderen Teilnehmer mehr als einen gültigen neuen Block, entscheiden diese, wel- chen Block sie übernehmen. In der Regel ist das der erste empfangene Block. In selte- nen Fällen kann es zu einem Fork in der Blockchain kommen, bei der die Kette ver- zweigt und beide Zweige mit gültigen neuen Blöcken fortgeführt werden. In solch ei- nem Fall setzt sich irgendwann der Fork mit der längeren Kette durch, weil angenom- men wird, dass dahinter die Mehrheit der Teilnehmer steht. Dabei werden die Transak- tionen im verworfenen Zweig der Fork bzw. die geschürften Blocks wertlos, was die Revisionsfähigkeit (Wirtschaftsprüfer) der Blockchain in Frage stellt.

Die erste Transaktion in einem Block enthält die Überweisung der neu erzeugten Bit- coins und der Transaktionsgebühren. Die Menge der neu erzeugten Bitcoins ist derzeit auf 12,5 Bitcoins pro Block beschränkt. Versucht ein Bitcoin-Node, mehr Bitcoins zu erzeugen als ihm zustehen, wird sein Block von anderen Bitcoin-Nodes nicht akzeptiert. Ursprünglich wurden 50 Bitcoins pro Block erzeugt. Diese Zahl halbiert sich alle 210.000 Blöcke, was etwa vier Jahren entspricht, so dass die maximale Anzahl an Bit- coins, die jemals erzeugt werden können, auf 21 Millionen festgelegt ist. Da ein Bitcoin (in der aktuellen Bitcoin-Core-Version) in 100 Millionen Einheiten (Satoshis) unterteilt werden kann, ergibt sich eine Gesamtzahl von 2,1 1015, d. h. 2,1 Billiarden diskreten Einheiten.

Um eine Bitcoin-Adresse zu erhalten, muss der Bitcoin-Client des Teilnehmers zu- nächst ein Schlüsselpaar erzeugen. Das Schlüsselpaar besteht aus einem öffentlichen und einem privaten Schlüssel. Der private Schlüssel ist eine generierte Zufallszahl und wird im Wallet gespeichert. Er dient dem Signieren von Transaktionen, d. h. ausgehen- den Zahlungen (analog zur Unterschrift auf einem Überweisungsträger), und sollte ge- heim gehalten werden. Gleichzeitig bedeutet der Verlust des privaten Schlüssels auch den Verlust der dazugehörigen Bitcoins. Der öffentliche Schlüssel braucht nicht mit ge- speichert zu werden, da er aus dem privaten Schlüssel berechnet werden kann (siehe ECDSA #Schlüsselerzeugung). Die Bitcoin -Adresse ist eine Kurzform (Fingerprint) des öffentlichen Schlüssels und mit Base58 kodiert. Um die Adresse zu berechnen, werden zwei kryptologische Hash- funktionen nacheinander auf den öffentlichen Schlüssel angewandt (hier: RIPEMD- 160(SHA-256(pubkey) Neben dem sich daraus ergebenden 160 Bit langen Hashwert (public key hash) ist in der Adresse ein weiterer 32 Bit langer Hashwert enthalten, durch den, wie bei einer Prüfsumme, Übertragungs- oder Tippfehler erkannt werden sollen. Bitcoin verwendet das Elliptische-Kurven-Kryptosystem ECDSA in der stan- dardisierten 256-Bit-Konfiguration secp256kl.

Die Überweisungen von Bitcoins zwischen den Teilnehmern wird in„Transaktionen“ abgewickelt, die für den Benutzer ähnlich einer Banküberweisung funktionieren. Der Zahlungssender muss lediglich die Bitcoin-Adresse (vergleichbar mit der Kontonum- mer bzw. IBAN) des Zahlungsempfängers kennen; dessen Bestätigung ist nicht nötig. Die Bitcoin-Adressen können von einem Bitcoin-Client bei Bedarf generiert werden. Der Zahlungsempfänger muss deshalb nicht mit dem Netzwerk verbunden sein. Der Sender muss sich nur kurz verbinden, um die Transaktion abzusetzen.

Eine Rückabwicklung von Transaktionen ist, nachdem sie einmal in die Blockchain aufgenommen wurden, ausgeschlossen. Auch das Einziehen von Guthaben von einem Konto, wie beim Lastschriftverfahren, ist nicht möglich. Allerdings kann der Zahlungs- sender eine von ihm ausgelöste Transaktion bis zu ebendiesem Zeitpunkt ändern. Pro- blematisch daran ist, dass zwischen dem initialen Auslösen der Transaktion und ihrer Manifestierung in der Blockchain so viel Zeit vergehen kann, dass Bitcoins nicht mehr als Sofort-Zahlungsmittel einsetzbar sind. Zumindest müsste der Zahlungsempfänger ggf. das Risiko eines Totalausfalls der Zahlung eingehen, wenn er seinerseits z. B. Wa- ren ausliefert, bevor die Transaktion nachweisbar abgeschlossen ist.

Beim Überweisen von Bitcoins fallen Gebühren an. Diese betragen derzeit mindestens 1.000 Satoshi (= 10 pBTC = 0,01 mBTC = 0,00001 BTC). Die Gebühren werden einer- seits erhoben, um den am Mining beteiligten Teilnehmern eine Belohnung für das Ab- wickeln der Transaktion zukommen zu lassen. Andererseits sollen die Gebühren ver- hindern, dass das Netzwerk mit Transaktionen absichtlich überlastet wird. Die Höhe der benötigten Gebühren hängt von der Größe der Transaktion (in Bytes) ab, sie ist nicht abhängig von dem Wert der überwiesenen Bitcoins.

Der überweisende Teilnehmer kann die Transaktionsgebühren, die er zu zahlen bereit ist, selbst festsetzen. Je höher dieser Wert ist, umso schneller wird die Transaktion be- stätigt. Die Miner wählen sich, wenn sie neue Blöcke bilden, in der Regel diejenigen Transaktionen aus dem„Mempool“ genannten Reservoir an unbestätigten Transaktio- nen aus, die die höchste Transaktionsgebühr aufweisen. Eine Auswahl ist nötig, da die Anzahl der in einen Block passenden Transaktionen durch eine Obergrenze beschränkt ist. Die benötigten Transaktionskosten sind hierdurch zeitlich nicht konstant, sondern hängen von der Größe des Mempools und somit von der aktuellen Auslastung durch von anderen Teilnehmern eingestellten Transaktionen ab.

Genaugenommen existieren im Bitcoin-System keine Konten, die ein Guthaben aufwei- sen können. Das„Guthaben“, das der Bitcoin-Client oder andere Wallet-Programme ausweisen, sind eingegangene Gutschriften auf die Bitcoin -Adressen aus dem Bitcoin- Wallet des Benutzers, die noch nicht weiterüberwiesen wurden (sogenannte unspent transaction Outputs, UTXOs).

Jede Transaktion enthält mindestens eine Adresse als Eingabe, mindestens eine Adresse als Ausgabe, für jede der Empfängeradressen den entsprechenden Betrag und noch wei- tere Felder für die Signatur und Verwaltung. Der Betrag wird den Eingabeadressen ent- nommen und den Zieladressen in der angegebenen Höhe gutgeschrieben. In einer Transaktion können auch mehrere einzelne Überweisungen zusammengefasst werden. Guthaben kann von mehreren Adressen zusammengeführt und unter mehreren Adressen aufgeteilt werden. Die Beträge werden von den sendenden Adressen immer vollständig abgezogen. Verbleibt„Wechselgeld“, wird es einer Adresse des bisherigen Besitzers wieder gutgeschrieben. Es ist auch möglich, eine Überweisung von mehreren Teilneh- mern signieren zu lassen (z. B. bei einem Treuhanddienst). Abschließend wird die gesamte Transaktion mit dem privaten Schlüssel des Senders si- gniert, was sie damit authentisiert und vor Veränderungen schützt. Danach wird die Transaktion ins Peer-to-Peer-Netzwerk übertragen und mit einem Flooding- Algorithmus verbreitet. Der Absender schickt seine Transaktion an alle ihm bekannten Bitcoin-Nodes im Netzwerk. Diese verifizieren die Signatur und prüfen, ob die Trans- aktion gültig ist. Anschließend leiten sie die Transaktion an die ihnen bekannten Bit- coin-Nodes weiter. Das wiederholt sich, bis die Transaktion allen Bitcoin-Nodes im Netzwerk bekannt ist. Sobald genügend Bitcoin-Nodes die Transaktion bekannt ist, be- ginnen diese sie zu verarbeiten, indem sie durch Mining einen Block erzeugen, in dem die Transaktion enthalten ist.

Beispiel: Teilnehmer A hat zuvor einen Betrag an Teilnehmer B überwiesen, den dieser nun weiter an Teilnehmer C überweisen möchte. Dazu erstellt Teilnehmer B eine Transaktion, die als Eingabe die Gutschrift von Teilnehmer A erhält und als Ausgabe die Adresse des Teilnehmers C hat. Um nachzuweisen, dass er der Besitzer der Bitcoins ist, die A ihm überwiesen hat, schreibt B seinen vollständigen öffentlichen Schlüssel und die Eingabetransaktion in die neue Transaktion. Aus dem öffentlichen Schlüssel kann seine Bitcoin-Adresse berechnet und so nachgewiesen werden, dass der Betrag zuvor von A an ihn überwiesen wurde. Als Zahlungsempfänger gibt Teilnehmer B die Bitcoin-Adresse von Teilnehmer C an sowie den Betrag, den er C überweisen möchte. Zum Schluss signiert Teilnehmer B die Transaktion mit seinem privaten Schlüssel und überträgt sie an das Netzwerk.

Vorhersage der Gesamtmenge an Bitcoins bis zum Jahr 2033: Durch das Mining wer- den neue Blöcke erzeugt und anschließend zur Blockchain hinzugefugt. Durch neue Blöcke werden neue Bitcoins ausgegeben und gleichzeitig ein Teil der neuen oder noch offenen Transaktionen bestätigt. Bis zum November 2012 wurden 50, anschließend bis zum Juli 2016 25 und seitdem 12,5 Bitcoins mit jedem neuen Block ausgezahlt. Auf diese Weise findet eine dezentrale Geldschöpfung statt. Der Vorgang ist sehr rechenin- tensiv, und im Gegenzug erhält der Teilnehmer, der einen gültigen Block erzeugt, als Belohnung die geschöpften Bitcoins und die Gebühren aus den enthaltenen Transaktio- nen. Nachdem ein neuer gültiger Block gefunden wurde, wird er, wie unbestätigte Transaktionen, per Flooding-Algorithmus an alle Bitcoin-Nodes im Netzwerk als neue längere gültige Blockchain verbreitet. Das Mining im Bitcoin-System löst auf diese Weise auch das Problem der byzantinischen Generäle: Da es keine zentrale Instanz gibt, welche die Teilnehmer beglaubigt, vertrauen sich die Bitcoin-Nodes prinzipbedingt ge- genseitig nicht.

Das Problem besteht für jeden Bitcoin-Node darin, herauszufinden, welche Blöcke bzw. welche Blockchain nun die„richtige“ ist, d. h. der die Mehrheit vertraut. Gültige Blök- ke werden nur durch das rechenintensive Mining erschaffen. So vertraut jeder Bitcoin- Node der längsten gültigen Blockkette, da hinter dieser die meiste Rechenleistung steht und deswegen auch die Mehrheit der Teilnehmer vermutet wird.

Proof of Work und Mining-Schwierigkeit: Praktisch die gesamte Rechenleistung des Bitcoin-Netzwerks entfällt beim Mining auf das Lösen einer kryptographi sehen Aufga- be, den Proof of Work. Damit soll sichergestellt werden, dass das Erzeugen gültiger Blöcke mit einem gewissen Aufwand verbunden ist, so dass eine nachträgliche Modifi- kation der Blockkette, wie bspw. beim Szenario eines 51 -%- Angriffs, praktisch ausge- schlossen werden kann.

Schwierigkeitsgrad: Die Schwierigkeit der Aufgabe wird im Netzwerk dynamisch so geregelt, dass im Mittel alle zehn Minuten ein neuer Block erzeugt wird. D. h., mit stei- gender Rechenleistung des Netzwerks wird auch das Lösen der Aufgabe immer auf- wendiger (siehe auch Kryptowährung #Ressourcen-Verbrauch). Die Wahrscheinlichkeit eines Teilnehmers, die richtige Lösung zu finden, ist proportional zu der eingesetzten Rechenleistung. Alle zwei Wochen passen die Bitcoin-Nodes den Schwierigkeitsgrad des Minings an die aktuelle Rechenleistung des gesamten Systems an, so dass weiterhin etwa alle zehn Minuten eine neue Lösung gefunden wird. Lösungen, die dem aktuellen Schwierigkeitsgrad nicht entsprechen, werden von anderen Bitcoin-Nodes nicht akzep- tiert. Der Proof of Work besteht bei Bitcoin darin, einen Hashwert zu finden, der unterhalb eines bestimmten Schwellwerts liegt. Der Schwellwert ist umgekehrt proportional zur Mining-Schwierigkeit. Durch den Schwellwert kann der Aufwand zum Lösen des Proof of Work geregelt werden, denn je niedriger dieser Wert ist, umso unwahrscheinlicher ist es, einen passenden Hash zu finden. Der Hash wird durch zweimaliges Anwenden der kryptologischen Hashfunktion SHA-256 auf den Anfangsbereich eines Blocks (Block- header) berechnet.

Der Ablauf funktioniert folgendermaßen:

Block initialisieren, Root-Hash des Blocks aus Transaktionen berechnen

Hashwert berechnen: h = SHA256(SHA256(block header))

Wenn h >= Schwellwert, Blockheader verändern und zurück zu Schritt 2

Sonst (h < Schwellwert): Gültiger Block gefunden, Berechnung stoppen und Block ver- öffentlichen.

Um sicherzustellen, dass ein Hashwert unterhalb der vorgegebenen Schwelle gefunden werden kann, gibt es im Blockheader verschiedene Felder, deren Wert verändert wer- den kann. Speziell für diesen Zweck existiert das Feld Nonce.

Das Mining auf dem Prozessor eines handelsüblichen Computers war - außer während einer kurzen Zeit zu Beginn - noch nie rentabel. Mining lohnte sich daher nur auf Gra- fikprozessoren oder spezialisierter (dedizierter) Hardware wie FPGAs. Da mit der Zeit pro Einheit an Rechenleistung auf Grafikprozessoren immer weniger Bitcoins erzeugt wurden und der Stromkostenanteil daher stieg, wurden etwa seit Ende 2011 verstärkt FPGAs genutzt. Diese verbinden hohe Hardwarekosten und niedrigen Stromverbrauch mit einer sehr hohen Rechenkapazität in Bezug auf eine spezielle Rechenanforderung, für die sie hergestellt wurden. Mittlerweile haben Hardwarebausteine wie ASICs auch die FPGAs fast vollständig abgelöst, da ihre Leistung noch deutlich höher liegt.

Ende Januar 2013 erschienen erste lauffähige, kommerziell erhältliche ASIC-Systeme zum Mining von Bitcoins. Mit diesen ist es möglich, Bitcoins rund 50-mal schneller zu minen als bisher mit GPU-basierten Systemen. Dabei ist der Stromverbrauch, der einen erheblichen Teil der Kosten ausmacht, jedoch deutlich geringer. Die Folge war, dass die Schwierigkeit des Minings so weit anstieg, dass GPU-basiertes Mining (wie bereits zu- vor CPU-basierte Systeme) innerhalb weniger Monate weitgehend unwirtschaftlich wurde. So liefern die im Bild gezeigten ASICMiner Block Erupter USB in 130-nm- Chip-Technik, welche Mitte bis Ende 2013 verbreitet waren, ca. 333 Megahash pro Se- kunde (Mhash/s) und arbeiten mit einer Effizienz von 130 Megahash pro Joule (Mhash/J). Mininghardware in 28-nm-Technik, die ab Mitte 2014 verfügbar wurde, lie- fert die zehnfache Effizienz von ca. 1,3 Gigahash pro Joule (Ghash/J) oder mehr. Ultra- effiziente ASIC -Mininghardware in 28-nm-Technik mit 6 Ghash/J (0,19 J/Ghash) wur- de bereits für 2015 angekündigt, bevor der Einstieg in die noch höher effiziente 14-nm- Chip-Technik bei ASIC-Mininghardware für 2016 erwartet wird.

Der Trend geht seither zu zentralisiertem Cloud-Mining als riskante Kapitalanlage. Die Anbieter dieses Cloud-Minings betreiben ihre Rechenzentren beispielsweise in Island, da der Strom dort sehr günstig und die Möglichkeiten einer effizienten Kühlung der Tausende von ASIC-Mining-Rechnern sehr gut sind. Das könnte das ehemals sichere dezentrale Bitcoin-Mining-Model bedrohen und einen 51 %-Angriff wahrscheinlicher machen. Unterschieden werden Soft Forks, bei welchem die Software modifiziert wird, und Hard Forks, bei der die Blockchain in zwei inkompatible Ketten geteilt wird. Soft Forks des Bitcoin sind unter anderem Bitcoin XT und Bitcoin Classic. Hard Forks sind bedeu- tender, da bei diesen die komplette Blockchain vor dem Fork verdoppelt wird. So be- kam jeder Besitzer eines Bitcoins zum Zeitpunkt des Forks einen Bitcoin Cash bzw. ei- nen Bitcoin Gold. Für gewöhnlich setzt sich nur eine der beiden Ketten durch; so koste- te der Bitcoin am 12. Februar 2018 etwa 8600 US-$, der im Oktober abgespaltene Bit- coin Gold lediglich rund $110. Gründe können neben einfachen Profitinteressen auch technische Neuerungen sein. Die Abspaltung des Bitcoin Cash ging einher mit einer Erhöhung der Blockgröße auf 8 MB und somit einer erhöhten Leistungsfähigkeit. Die Abspaltung des Bitcoin Gold geht einher mit dem Wechsel des Hash-Algorithmus von SHA256 zu Equihash.

Insgesamt gab es 2017 19 Forks des Bitcoins, für 2018 werden etwa 50 erwartet.

Wichtige Forks des Bitcoins sind:

Bitcoin Cash: Gespalten bei Block 478558.

Bitcoin Gold: Gespalten bei Block 491407.

Bitcoin Diamond :Gespalten bei Block 495866.

Bitcoin Private: Gespalten bei Block 511346.

Bitcoin SV: Gespalten bei Block 556766 von Bitcoin Cash.

Bitcoin-Technik in anderen Projekten: Da Bitcoin unter der MIT -Lizenz steht, darf der Quellcode auch für andere Programme verwendet werden. Im Falle von Namecoin wurde so ein verteiltes Domain Name System (DNS) (.bit) geschaffen. Es ist zudem ohne großen Aufwand möglich, eine Bitcoin-Kopie mit ggf. leicht geänderten Parame- ter und separater Blockchain zu erstellen. Die bekanntesten eigenständigen Währungen, die auf der Codebasis von Bitcoin aufbauen, aber eine separate Blockchain haben und teilweise zusätzliche Funktionalität haben, sind Litecoin, Zcash und Dogecoin.

Bitcoin ist elementarer Bestandteil der Trusted-time stamping Implementation Ori- ginstamp.

Skalierbarkeit: Das bestehende Bitcoin-Netzwerk ist nur eingeschränkt skalierbar. Li- mitierende Faktoren für den einzelnen Teilnehmer sind die Bandbreite zum Empfang und Weiterversand von Transaktionen und Blöcken, die CPU-Leistung zur Verifikation eingehender Transaktionen und Blöcke und die Speicherkapazität zur Speicherung der Blöcke. Übersteigt einer der Faktoren die Kapazität eines einzelnen Teilnehmers, so kann dieser nicht mehr am System teilnehmen.

Der Erfinder und ursprüngliche Hauptentwickler von Bitcoin, Satoshi Nakamoto, be- schrieb im Whitepaper vereinfachte Bitcoin-Clients, die keine vollständige Verifikation der Ergebnisse durchfuhren, sondern sich auf einen anderen, vertrauenswürdigen Bit- coin Core verlassen (Simplified Payment Verification). Mit einem solchen Entwurf wä- re es möglich, eine hohe Anzahl von Transaktionen über ein kleines Netz von besonders leistungsfähigen Bitcoin-Nodes zu bearbeiten.

Ein wichtiger limitierender Faktor ist die Kapazität der Blockchain selbst. Satoshi Nakamoto hat 2010 ein Blockgrößen-Limit von 1 MB in die Referenzimplementierung eingebaut. Es beschränkt die maximale Anzahl der Transaktionen auf ca. 7 Transaktio- nen pro Sekunde. Das Limit wurde eingebaut, um mögliche Angriffe auf das Netzwerk mit übermäßig großen Blöcken zu verhindern. Zur damaligen Zeit war Bitcoin kaum verbreitet, so dass die Anzahl der Transaktionen weit unterhalb des Limits lag. Mit dem Anstieg der Beliebtheit von Bitcoin stieg auch die Anzahl der Transaktionen, so dass es immer häufiger Perioden gab, in denen die Blöcke voll waren und ein Rückstau an un- bestätigten Transaktionen entstand.

Der Stau an unbestätigten Transaktionen ist durch die Größe des Mempools erkennbar. Wird die Kapazität des Gesamtsystems überschritten, steigt die Dauer zur Bestätigung einer Transaktion. Die Teilnehmer müssen die Transaktionsgebühren erhöhen, damit ih- re Zahlungen bevorzugt bearbeitet werden. Unter diesem Hintergrund gab es in der Bit- coin-Community eine scharf geführte Debatte über das richtige Vorgehen zur besseren Skalierung, die in einem Hard Fork resultierte und erst 2017 abflachte.

Auf der einen Seite der Debatte hat das Entwicklerteam der Referenzimplementierung Bitcoin Core eine deutliche Erhöhung des Blockgrößen-Limits abgelehnt. Stattdessen wurde der Softfork SegWit (Segregated Witness) unterstützt, der neben einer indirek- ten, moderaten Anhebung der Blockgröße vor allem die Grundlage bereitet für„Off- Chain“ -Lösungen, die eine bessere Skalierung anstreben, indem die Anzahl derjenigen Transaktionen verringert wird, die auf der Blockchain gespeichert werden müssen.

Die bekannteste dieser in Anlehnung an das OSI-Modell auch„Layer 2“-Technologie genannten Off-Chain Lösungen ist das Lightning Netzwerk, ein auf Bitcoin aufbauen- des Netzwerk aus Zahlungskanälen zwischen Teilnehmern, über das Zahlungen abge- wickelt werden können und bei dem nur in manchen Situationen Transaktionen anfal- len, die auf der Blockchain von Bitcoin gespeichert werden müssen.

Die andere Seite der Debatte, darunter Roger Ver und die Firma Bitmain, die hinter ei- nem bedeutenden Teil der Mining-Rechenleistung stand, befürwortete die Skalierung von Bitcoin durch eine Anhebung der Blockgröße. Um das Blockgrößen-Limit von 1 MB auf 8 MB anzuheben, entstand am 1. August 2017 die Abspaltung (Hard-Fork) Bitcoin Cash. Am 15. Mai 2018 wurde durch einen weiteren Flard Fork die Blockgröße auf 32 MB erweitert. Dadurch wurden 167 Transaktionen pro Sekunde möglich. Weite- re Anpassungen der Blockgröße in regelmäßigen Abständen sind vorgesehen.

Axel A. Weber, ehemaliger Präsident der Deutschen Bundesbank, spricht dem Bitcoin die Erfüllung grundlegender Währungsfunktionen ab. Der Bitcoin sei nur eine Transak- tionswährung, so Weber auf einer Konferenz in Zürich im Oktober 2017. Die wichtigste Funktion einer Währung sei, dass man mit ihr zahlen könne und sie überall akzeptiert werde. Außerdem sollte sie ein Wertaufbewahrungsmittel sein - all das sei der Bitcoin aber nicht. Das wesentliche Merkmal von Geld - die Verwendung als Tauschmittel - ist bei Bitcoin nach herrschender Ansicht nicht gegeben. Ebenso wenig erfüllen Bitcoin und andere Kryptowährungen die Anforderung gemäß den beiden herrschenden Schu- len zur Entstehung und Natur von Geld - nämlich intrinsischen Wert nach der orthodo- xen und staatliche Akzeptanz nach der heterodoxen Schule.

Andrew Bailey, Chef der britischen Finanzmarktaufsichtsbehörde, sagte Ende 2017, dass„Bitcoin“ keine Währung sei. Es gebe keine Regulation der Geldeinheiten in Bit- coin-Form. Es sei eine Handelsware mit sehr sprunghaftem Preisgefüge.

Unabhängigkeit von Banken, Zahlungsdienstleistern und staatlichen Währungen: Seit der Debatte um WikiLeaks Mitte 2010 bzw. der Sperrung von WikiLeaks-Konten bei Visa, MasterCard und vor allem PayPal wurde Bitcoin als Alternative diskutiert, da es keine übergeordneten Instanzen besitzt, die direkten Einfluss nehmen können. [179] Da die Sperre anhält, obwohl es selbst nach Auffassung des ehemaligen US- Finanzministers Timothy Geithner keine rechtliche Grundlage dafür gibt, rief Wi- kiLeaks dazu auf, Bitcoin zur Übermittlung von Spenden zu nutzen.

Im Zuge der seit 2010 auffallenden starken Kurssteigerungen wurde debattiert, ob Bit- coin Eigenschaften eines„Ponzi -Schemas“ (ähnlich einem Schneeballsystem) habe. Kritiker werfen dem Bitcoin-System vor, dass nur Gewinne erzielt werden könnten, wenn sich neue Käufer fänden, die Bitcoins zu höheren Preisen kaufen. Dadurch hätte im Endeffekt ein Transfer von etablierten Währungen an die früheren Besitzer stattge- funden und das sei ein klassisches Merkmal eines Schneeballsystems.

Bitcoin-Befürworter entgegneten dem noch 2011, dass gegenüber Papierwährungen Handhabungsvorteile - und damit einen realer Nutzen bestehe und die Kursgewinne mit Netzwerkeffekten begründbar seien. Die plötzlichen Kurssteigerungen seien Folge der schnellen Nachfrage-Ausweitung bei nur langsam wachsendem Angebot und stellten für früh eingestiegenen Beteiligten aufgrund des hohen Risikos eines Misserfolges ei- nen Ausgleich dar. Später erreiche die Währung durch Sättigungseffekte einen stabile- ren Kurs.

Die Europäische Zentralbank legte sich u. a. in einem im Oktober 2012 erschienenen Bericht zu Bitcoin nicht fest, ob hier ein Schneeballsystems vorliege. Es gebe„keinen zentralen Organisator, der das System unterlaufen und mit dem Geld verschwinden [könne]“,„auch verspricht das System niemandem hohe Profite“. Es gebe jedoch eine klare Informationsasymmetrie, da das System einerseits sehr komplex zu verstehen sei, es aber sehr leicht benutzt werden könne, ohne dass man sich zuvor über die Risiken ei- nes Kollapses bewusst sei.

Auch der Vorstand der österreichischen Finanzmarktaufsicht Helmut Ettl sah Ähnlich- keiten zur Tulpenzwiebelblase in Holland im 17. Jahrhundert. Man solle sich nicht von den hohen Gewinnaussichten täuschen lassen. Das Ganze könne massiv an Wert verlie- ren. Der Chef der Zentralbank von Österreich kritisierte Bitcoin als„Marketingtrick“. Auch kritisiert er, dass durch steigende Kurse die Geldwäsche leichter sei. Der Ankauf nennenswerter Beträge in Bitcoins ist bisher eine hochriskante Investition. Der Journa- list Timothy B. Lee, der in Bitcoins investierte, nannte 2013 folgende Risiken:

Irreversible Verluste durch Malware, Datenverlust oder Einbrüchen bei Online-Börsen. So wurden etwa ein Drittel aller Handelsplattformen für Krypto-Währungen nach Un- tersuchungen von 2017 seit 2009 gehackt.

Starke Einschränkungen durch staatliche Regulation als Maßnahme gegen Geldwäsche Eine Überlastung der Kapazität des Systems, die zumindest zeitweise Transaktionen langsam sowie kleine Transaktionen sehr teuer machen könnte. Eine gegenüber dem steigenden Kurs und den damit verbundenen hohen Erwartungen zu geringe kommerzi- elle Nutzung.Gezielte Marktmanipulation durch große Marktteilnehmer. Diese wären in Deutschland möglicherweise nicht strafbar, da Bitcoins gesetzlich nicht als Wertpapiere oder Vermögensanlagen gelten.

Im Dezember 2017 warnte der Chef der britischen Financial Conduct Authority, Bit- coins sei eine Handelsware, von der es nur einen begrenzten Vorrat gebe. Wer in Bit- coins investieren wolle, solle wissen, dass er die gesamte Investition verlieren könne. Mitte Dezember 2017 warnte auch der Chef der dänischen Zentralbank Lars Rohde vor Bitcoin-Investitionen. Man solle sich femhalten, es sei„tödlich“, man sei auf sich allein gestellt und solle sich nicht beschweren, wenn etwas schiefgehe.

Legitimität einer nichtzentralen Geldschöpfung: Falls die Zahlungseinheit sich etabliert und ein Handel mit ihr stattfindet, findet faktisch eine Geldschöpfung statt, die im Fall von Zentralbankgeld traditionell ein Monopol der Notenbanken darstellt, im Fall von Kredit- und Buchgeld jedoch vor allem durch die Geschäftsbanken stattfindet. Eine Vergrößerung der Geldmenge gegenüber Warenwerten (ob durch Bargeld oder Kredit- geld) führt bei gegebener Umlaufgeschwindigkeit tendenziell zu Inflation (siehe: Quan- titätstheorie, Neutralität des Geldes). Damit einher geht ein Kaufkraftverlust bestehen- der Guthaben - und immer ein Transfer von Vermögenswerten zur geldausgebenden Stelle. Bei Bitcoins entfiele diese Einnahmequelle für Zentralbanken. Daher wird bei- spielsweise vom deutschen Interessenverband„Bundesverband Digitale Wirtschaft“ die Legitimität einer nichtzentralen Geldschöpfung bestritten. Dagegen seien Bonus- und Guthabensysteme wie Vielflieger-Meilen, Linden Dollars, Facebook Credits oder Pay- back-Card nicht von diesem Legitimitätsproblem betroffen.

Das erwähnte Banknotenmonopol wird heute durch den Status des gesetzlichen Zah- lungsmittels sowie in der EU durch das Münzgesetz von 2002 gestützt. Ein Verbot al- ternativer Währungen enthalten diese Rechtsnormen nicht. Eine neue Währung ist je- doch aufgrund der Netzwerkeffekte der etablierten Währungen extrem schwer einzu- führen.

Befürworter und Nutzer von Bitcoin vertraten 2011 die Auffassung, durch die Entkopp- lung der Geldschöpfung von zentralen Machtstrukturen lasse sich eine Demokratisie- rung des Geldwesens bewirken. Auch die Ablösung des bestehenden, im Wesentlichen auf Krediten basierenden Systems, bei dem Geld stets mit Schuldzinsen belastet ist, wird teilweise als wünschenswert angesehen.

Am 1. Juni 2011 riet der deutsche„Bundesverband Digitale Wirtschaft“ eine Presse- meldung von der Nutzung von Bitcoins ab. Diese hätten ohne staatliche Kontrolle„das Potenzial, der gesamten Gesellschaft [...] durch Steuerhinterziehung, Geldwäsche oder andere illegale Geschäfte nachhaltig zu schaden“. Auch widerspreche eine automatisier- te Geldmengensteuerung wie mit , Bitcoins 4 jeder Konjunkturpolitik und entziehe ihr den Boden.

Auch die Europäische Zentralbank sah 2012 Risiken bei einer wachsenden Einführung frei konvertierbarer elektronischer Währungen, etwa durch geringere Preisstabilität oder Reputationsrisiken für die Zentralbanken. Risiken von Deflation und Inflation:

Deflationäre Risiken: Gerhard Rösl von der Hochschule Regensburg konnte 201 1 noch keine offensichtlichen Probleme der Währung erkennen. Er sehe kein erhöhtes Miss- brauchspotential im Vergleich zu Bargeld, und bei der Konzeption von Bitcoins sei of- fenbar darauf geachtet worden, dass die Wechselkurse im Hinblick auf andere Währun- gen als auch im Hinblick auf zu bezahlende Leistung flexibel seien.

Inflationäre Risiken: Kritikern zufolge werde die Akzeptanz von Bitcoin als alternative Währung zu einer beispiellosen Hyperinflation derselben fuhren. Wenn Kunden und Händler Bitcoins akzeptieren, würden sie auch ähnliche Ersatzwährungen akzeptieren. Auch wenn die Höchstzahl an Bitcoins beschränkt ist, könnten unbegrenzt weitere Währungen geschaffen und so die Geldmenge beliebig ausgeweitet werden.„Sobald klar würde, dass [auch bei solchen virtuellen Währungen] keine Beschränkung [der Geldschöpfung] möglich ist, werden die Leute erkennen, dass ihre Guthaben jeden Moment wertlos werden können, und die Nachfrage nach Bitcoins und ähnlichen Wäh- rungen wird zusammenbrechen und das Experiment beenden“.

Verwendung für illegale Zwecke: Anfang Juni 2011 erschien ein Artikel beim Online- Portal Gawker, in dem über Silk Road, einen mit dem Anonymisierungsnetzwerk Tor zugänglichen Darknet-Markt berichtet wurde, auf der gegen Bitcoin Drogen angeboten wurden. Dieser Bericht wurde von den US-amerikanischen Senatoren Charles Schumer und Joe Manchin aufgegriffen, die ein Verbot der Seite forderten und die Legalität von Bitcoin allgemein in Zweifel zogen.

Tatsächlich spielt Bargeld bei den Aktivitäten der Schattenwirtschaft, deren gesamter Umfang in Deutschland auf etwa 12 bis 17 % des Bruttoinlandsprodukts geschätzt wird, aufgrund seiner Anonymität eine besondere Rolle. Deswegen gibt es eine Tendenz zur zunehmenden Kontrolle von Bargeld-Transaktionen. Ein Gesetzentwurf zur Optimie- rung der Geldwäscheprävention, der eine Registrierung bei bisher anonymen Zahlungen mit Systemen wie der Paysafecard vorsieht, wurde von der deutschen Bundesregierung vorgelegt. [201] Eine noch weitergehende Kontrolle von Zahlungsdaten durch die USA findet im Rahmen des politisch stark umstrittenen SWIFT-Abkommens statt.

Bitcoin-Tauschbörsenbetreiber wie Mark Karpeles von Mt.Gox oder der Zahlungs- dienstleister Dwolla erklärten daraufhin 2011, dass sie mit Behörden bereits zwecks ei- ner Kontrolle illegaler Transaktionen in Kontakt stünden und weitere Vorkehrungen wie Auszahlungslimits eingeführt wurden.

Mining-Rechenleistung, Stromverbrauch und Umweltverschmutzung: Das Bitcoin- Schürfen verbraucht große Mengen an elektrischer Energie. Wegen der möglichen öko- logischen Schäden steht Bitcoin in der Kritik. Das Schürfen neuer Bitcoins hatte alleine in der ersten Hälfte des Jahres 2018 einen Stromverbrauch von 30,1 Milliarden Kilo- wattstunden Strom. Zum Vergleich verbrauchte man in Dänemark im gesamten Jahr 2015 31,4 Milliarden Kilowattstunden. Mit Stand Januar 2019 verbrauchte das Bitcoin- System weltweit etwa 47 Milliarden Kilowattstunden pro Jahr.

Durch die selbstregulierende Schwierigkeit des Schürfens gibt es keine Obergrenze für den Energieverbrauch. Solange dies profitabel ist, wächst die Anzahl der Schürfer und damit der verbrauchte Strom - abhängig vom Bitcoin-Preis, da Schürfer die Stromko- sten mit der Belohnung für das Schürfen neuer Bitcoins mindestens decken müssen, um profitabel zu sein. So ging mit dem deutlichen Preisrückgang von Bitcoin in der zwei- ten Hälfte des Jahr 2018 auch ein Rückgang des Energieverbrauchs einher.

Verglichen mit anderen Online-Transaktionen benötigen Bitcoin-Transaktionen ein Vielfaches an Energie. Auf nur eine Transaktion bezogen wurden mit Stand Mai 2018 mindestens 300 kWh elektrische Energie verbraucht. Hingegen benötigt eine Überwei- sung mit einer Kreditkarte nur ca. 1-2 Wattstunden (0,001-0,002 kWh). Hierzu ist zu beachten, dass kein direkter Zusammenhang zwischen dem Energieverbrauch und der Anzahl von Transaktionen besteht, da die Belohnung für das Schürfen eines Blockes fest ist und nicht von der Anzahl der Transaktionen abhängt, die im Block enthalten sind.

Das Schürfen nur eines Bitcoins verbrauchte im Mai 2018 etwa 42.000 kWh, was dem Jahresstromverbrauch von zwölf Familien mit je 3500 kWh entspricht. Ein Test des Speicher-Anbieters iDrive mit 600 Servern im off-peak Modus ergab ein Ergebnis von 0,4 Bitcoin pro Jahr. Ende 2017 entstanden etwa drei Viertel aller Bitcoins in der Volksrepublik China, ins- besondere durch Kohlestrom aus der Inneren Mongolei. Den Kohlendioxidausstoß eines dort geschürften Bitcoins schätzte man 2017 auf 8 bis 13 Tonnen. Für 2018 rechnet Morgan Stanley mit einem Anstieg des Stromverbrauches auf 125 TWh, möglicherwei- se auch 140 TWh. Dies entspricht etwa 0,6 % des gesamten Weltstrom verbrau- ches.[21 1] Ein weiterer Mining-Hotspot ist auf Grund des günstigen Strompreises Is- land, wobei hier überwiegend emeuerbare Energie zum Einsatz kommt.

In einer 2018 in der Fachzeitschrift Nature Climate Change veröffentlichten Studie warnen die Verfasser, dass allein durch Bitcoin das Zwei-Grad-Ziel des Pariser Über- einkommens nicht eingehalten werden könne. Diese Annahme gilt seither jedoch als überholt. Aus Umweltschutzgründen beendete Norwegen ab 2019 die Mining- Subventionen.

Softwarefehler und Angriffsszenarien:

51 -Prozent- Angriff: Wenn ein Angreifer mindestens 51 % der Mining-Rechenleistung von Bitcoin kontrolliert, hat er die Möglichkeit, einen 51 -%-Angriff durchzuführen. Er könnte beispielsweise einzelne Teilnehmer gezielt ausschließen, indem er ihre Transak- tionen in Blöcken ignoriert.

In der Praxis ein größeres Problem sind Double Spend Angriffe, bei denen der Angrei- fer Bitcoins überweist und eine Gegenleistung dafür erhält (z. B. Bitcoins an eine Börse schickt und dort verkauft). Anschließend„storniert“ er die Transaktion, indem er eine von ihm erzeugte parallele Version der Blockchain veröffentlicht in dem die Transakti- on nie stattgefunden hat und der Angreifer immer noch seine Bitcoins kontrolliert. Beim Proof of Work wird stets derjenige Blockchain-Zweig als die„Wahrheit“ angese- hen, in den die meiste Rechenleistung investiert wurde, was zur Folge hat, dass ein 51 - %-Angreifer die Möglichkeit hat, den von ihm erstellten alternativen Zweig nachträg- lich zur„Wahrheit“ zu machen und seinen Geschäftspartner, von dem er ohne Bezah- lung die Gegenleistung erhalten hat, zu schädigen.

Kurzzeitig überschritt der Mining-Pool GHash im Juni 2014 die 50-Prozent-Marke. 51%-Angriffe sind aktuell vor allem für kleinere Kryptowährungen ein Problem, die die gleiche Proof-of-Work-Hashfunktion verwenden wie eine größere Kryptowährung, so dass es für Miner mit spezialisierter Hardware (ASIC) möglich ist, zum Zweck des An- griffs temporär Rechenleistung von der größeren auf die kleinere Währung umzuwid- men. Bei der Kryptowährung Bitcoin Gold gab es im Mai 2018 einen erfolgreichen 51 - Prozent-Angriff., auch auf die Kryptowährung Ethereum Classic wurde Anfang 2019 eine 51 -Prozent- Attacke ausgeübt.

Künftige Risiken durch Quantencomputer: Quantencomputer könnten künftig das Bit- coin-System gefährden: Der als Public-Key-Verschlüsselungsverfahren verwendete ECDSA-Algorithmus ist anfällig für den Shor-Algorithmus. Die Auswirkung auf Bit- coin durch einen Quantencomputer mit Shor-Algorithmus wären zunächst nicht kata- strophal, sofern die aus Datenschutzgründen ohnehin empfohlene Praxis befolgt wird, Bitcoin-Adressen nicht mehrfach zu benutzen.

Es ist hingegen kein Algorithmus für Quantencomputer bekannt, der die zum Bitcoin- Mining verwendete Hashfunktion SHA-256 effizient invertieren könnte. Eine Anwen- dung des Grover-Algorithmus würde den Prozess des Mining zwar quadratisch be- schleunigen, muss hierbei allerdings mit den im klassischen Fall verwendbaren ASICs konkurrieren. Daher wird die potentielle Auswirkung von Quantencomputem auf das Bitcoin-Mining als weniger stark eingestuft verglichen mit derjenigen auf ECDSA. Die Bedrohung gilt allerdings für nahezu die gesamte IT-Branche - nicht nur für einige Kryptowährungen.

Am 18. März 2013 gab die Financial Crimes Enforcement Network (FinCEN), eine Ab- teilung des Finanzministeriums der USA, einen Bericht heraus, der die Einstufung von zentralisierten und dezentralen virtuellen Währungen bezüglich eines Status als„Money Service Businesses“ (MSB) betraf. Darin wurden digitale Währungen und Zahlungssy- steme eingeordnet, die von keiner staatlichen Stelle herausgegeben werden. Nutzer von virtuellen Währungen wurden als frei von Auflagen für MSBs eingestuft. Organisatio- nen dagegen, die virtuelle Währungen hersteilen oder als Zahlungsdienstleister aufträ- ten, würden den Regelungen für MSB-Zahlungsdienstleister unterliegen, die insbeson- dere Melde- und Buchführungspflichten zur Eindämmung von Geldwäsche vorsehen. Nach wörtlicher Interpretation könnte das auch Personen betreffen, die Bitcoin-Mining betreiben: a person that creates units of convertible virtual currency and sells those units to another person for real currency or its equivalent is engaged in transmission to another location and is a money transmitter.“

Weiterhin wurden Organisationen als Zahlungsdienstleister und Wechseldienst benannt, die virtuelle Währungen für Zahlungsdienste einsetzen. Da diese Einstufung auch Per- sonen beträfe, die Bitcoin-Mining in sehr kleinem Umfang betreiben, wurden die Richt- linien (die keinen gesetzlichen Charakter haben) von der Bitcoin Foundation, einer In- teressenvertretung der Bitcoin-Nutzer, als zu weitgehend kritisiert.

Insgesamt verbessern die Richtlinien jedoch die Rechtssicherheit, da die grundsätzliche Legalität einer Nutzung von Bitcoin damit offensichtlich nicht mehr in Zweifel steht und Bitcoins erstmals von einer staatlichen Stelle als Zahlungsmittel oder Währung eingestuft wurden.

In Deutschland ist Bitcoin weder gesetzliches Zahlungsmittel noch E-Geld, Devisen oder Sorten, allerdings ist es nach der Feststellung der Bundesanstalt für Finanz- dienstleistungsaufsicht (BaFin) eine Rechnungseinheit (englisch unit of account), die in „multilateralen Verrechnungskreisen“ eingesetzt werden kann und somit Finanzinstru- ment im Sinne des Kreditwesengesetzes (KWG). Das wurde auch im August 2013 durch eine Anfrage des Abgeordneten Frank Schäffler an das Bundesfinanzministerium bestätigt: Bitcoin sei eine Art„privates Geld“. Diesem widerspricht der 4. Strafsenat des Kammergericht Berlin im Urteil vom 25. September 2018.

Der Kammer zufolge können Bitcoin keine Rechnungseinheiten sein, da es an der Wertbeständigkeit und der allgemeinen Anerkennung fehle. Damit ordnet die BaFin Bitcoins als mit Devisen vergleichbare Werteinheiten ein. Weiterhin seien Gewinne aus dem Bitcoin-Verkauf ein privates Veräußerungsgeschäft und unterlägen der Einkom- mensteuer gemäß § 23 Einkommensteuergesetz (EStG). Verluste, die aus einem priva- ten Verkauf nach Ablauf der Spekulationsfrist resultierten, können nicht mehr gegen Gewinne verrechnet werden.

In Bitcoin abgewickelte Geschäfte unterliegen üblichen Steuerpflichten; sie sind nicht geeignet, der Umsatzbesteuerung zu entgehen. Ein Umtausch von Bitcoins in andere Zahlungsmittel - und umgekehrt - ist umsatzsteuerfrei nach Art. 135 Abs. 1 Buchst e der Richtlinie 2006/112/EG des Rates vom 28. November 2006 (EU-Mehrwertsteuer- Systemrichtlinie, MwStSystRL) fallt.

In Österreich stellte Niko Alm am 23. Mai 2014 eine Parlamentarische Anfrage an Fi- nanzminister Michael Spindelegger in Bezug zur steuerlichen und rechtlichen Handha- bung von Bitcoin. Die Antwort besagte, dass der Handel mit Bitcoins„steuerbar und steuerpflichtig“ sein kann. Es müsse keine„Spekulationssteuer“ bezahlt werden, wenn man Bitcoins länger als ein Jahr besitzt.

Der US-amerikanische Internal Revenue Service gab 2014 eine Stellungnahme heraus, nach der Bitcoin als Eigentum (Property) zu besteuern ist. Sofern keine Ausnahmerege- lungen für Kleinbeträge geschaffen werden, hat diese Einstufung den Nachteil, dass auch bei Kleingeschäften wie z. B. dem Erwerb einer Tasse Kaffee für alle Nutzer um- fangreiche Buchführungspflichten bestehen, um anfallende Kapitaleinkünfte zu ermit- teln. Von 2013 bis 2015 gaben zwischen 800 und 900 Kunden Gewinne aus Bitcoinge- schäften bei der US-amerikanischen IRS an, während auf der Handelsplattform Coinba- se in jener Zeit etwa 14.000 Personen Bitcoingeschäfte für mehr als 20.000 US-Dollar tätigten. Daher erzwang die Steuerbehörde im November 2017 gerichtlich von Coinba- se die Herausgabe der Identitäts- und Kontodaten aller Kunden, die in jener Zeit Ge- schäfte ab 20.000 US-Dollar tätigten.

In Japan unterliegen Bitcoin-Gewinne als„sonstige Einkünfte“ einem Steuersatz bis zu 55 %. Der EuGH erklärte am 22. Oktober 2015, dass beim Kauf und Verkauf von Ein- heiten der virtuellen Währung .Bitcoin‘ keine Mehrwertsteuer anfällt. Den Inhalt des Urteils bestätigte das deutsche Bundesfinanzministerium den obersten Länderfinanzbe- hörden am 27. Februar 2018.

Während es grundsätzlich den einzelnen Mitgliedstaaten der Europäischen Union frei steht, für Bitcoin eigene Regeln zu erlassen, besteht mit der Richtlinie 2018/843/EU (Update der 4. Geldwäsche-Richtlinie, oft auch 5. Geldwäsche-Richtlinie bezeichnet) erstmals eine einheitliche und EU-weite Rechtsgrundlage für die Einstufung von Bit- coin.

Artikel 3 Ziffer 18 der 5. Geldwäsche-Richtlinie definiert den Begriff der virtuellen Währung. Nach dieser Bestimmung handelt es sich dabei um: "eine digitale Darstellung eines Werts, die von keiner Zentralbank oder öffentlichen Stelle emittiert wurde oder garantiert wird und nicht zwangsläufig an eine gesetzlich festgelegte Währung ange- bunden ist und die nicht den gesetzlichen Status einer Währung oder von Geld besitzt, aber von natürlichen oder juristischen Personen als Tauschmittel akzeptiert wird und die auf elektronischem Wege übertragen, gespeichert und gehandelt werden kann".

Diese Definition stellt nicht auf eine bestimmte Technologie ab. Die Verfasser dieser unionsrechtlichen Legaldefinition hatten dennoch in erster Linie die Blockchain- Technologie vor Augen und als archetypische Ausprägung Bitcoin. Die Legaldefinition ist somit quasi von Bitcoin ausgehend verfasst worden. Bitcoin sind somit jedenfalls ei- ne virtuelle Währung im Sinne der oben zitierten Definition.

Aus der zitierten Legaldefinition ist ersichtlich, dass virtuelle Währungen vom europäi- schen Gesetzgeber als Tauschmittel bezeichnet werden. Gesetzgeberischer Gegensatz zum Tauschmittel ist das Zahlungsmittel. Es ist kein Zufall, dass die Legaldefinition von Tauschmittel spricht und nicht von Zahlungsmittel. Ein früherer Definitionsvor- schlag der Europäischen Kommission verwendete noch ausdrücklich den Begriff Zah- lungsmittel. Zahlung ist dabei die Erfüllung einer Geldschuld und Zahlungsmittel alles was dazu verwendet werden kann. Im Ergebnis lässt sich die Tauschmitteleigenschaft am besten negativ umschreiben: Tauschmittel ist alles, was zur Erfüllung einer Schuld akzeptiert wird und nicht Zahlungsmittel ist. Bitcoin ist somit ein Tauschmittel.

Gründung von Kapitalgesellschaften mittels Kryptowährungen

Seit Sommer 2017 ist es in der Schweiz möglich, Aktiengesellschaften und Gesell- schaften mit beschränkter Haftung mit den wichtigsten Kryptowährungen zu gründen - allen voran Bitcoin. Die Kapitalgesellschaftsgründung ist seither insbesondere mit Bit- coin und Ether in der Praxis anerkannt. Kryptowährungen können in Anwendung der Vorschriften der Sacheinlage gemäss Art. 628 ff. OR zur Leistung des Aktienkapitals oder der Stammanteile verwendet werden. Das funktioniert grundsätzlich mit sämtli- chen Kryptowährungen, die nach Art. 958 ff. OR als Aktiven bilanzierbar sind.

Mitte Januar 2018 wurde fälschlicherweise von Plänen Südkoreas berichtet, den Handel mit Kryptowährungen wie Bitcoin zu verbieten, was zu hohen Kurseinbrüchen führte. Stattdessen plant die südkoreanische Regierung nur, neue ICOs zu verbieten und bishe- rige Kryptowährungen zu regulieren. Die schwedische Großbank Nordea verbietet seit dem 28. Februar 2018 ihren Angestellten den Handel mit Kryptowährungen wie Bit- coin.

63. RFID

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) zur technischen Verbessserung von RFID Anwendungen und RFID Elementen.

RFID (englisch radio-frequency Identification [' eidiao 'fjkkwsnsi ai.dsntifi'kei/n] „Identifizierung mit Hilfe elektromagnetischer Wellen“) bezeichnet eine Technologie für Sender-Empfänger-Systeme zum automatischen und berührungslosen Identifizieren und Lokalisieren von Objekten und Lebewesen mit Radiowellen.

Ein RFID-System besteht aus einem Transponder (umgangssprachlich auch Funketikett genannt), der sich am oder im Gegenstand bzw. Lebewesen befindet und einen kenn- zeichnenden Code enthält, sowie einem Lesegerät zum Auslesen dieser Kennung. RFID-Transponder können so klein wie ein Reiskorn sein und implantiert werden, etwa bei Haustieren oder Menschen. Darüber hinaus besteht die Möglichkeit, RFID- Transponder über ein spezielles Druckverfahren stabiler Schaltungen aus Polymeren herzustellen. Die Vorteile dieser Technik ergeben sich aus der Kombination der gerin- gen Größe, der unauffälligen Auslesemöglichkeit (z. B. bei dem am 1. November 2010 neu eingeführten Personalausweis in Deutschland) und dem geringen Preis der Trans- ponder (teilweise im Cent-Bereich).

Die Kopplung geschieht durch vom Lesegerät erzeugte magnetische Wechselfelder in geringer Reichweite oder durch hochfrequente Radiowellen. Damit werden nicht nur Daten übertragen, sondern auch der Transponder mit Energie versorgt. Zur Erreichung größerer Reichweiten werden aktive Transponder mit eigener Stromversorgung einge- setzt, die jedoch mit höheren Kosten verbunden sind. Das Lesegerät enthält eine Soft- ware (ein Mikroprogramm), die den eigentlichen Leseprozess steuert, und eine RFID- Middleware mit Schnittstellen zu weiteren EDV-Systemen und Datenbanken.

Die ersten RFID-Anwendungen wurden Ende des Zweiten Weltkrieges im Luftkrieg zwischen Großbritannien und Deutschland eingesetzt. Dort diente ein Sekundärradar zur Freund-Feind-Erkennung. In den Flugzeugen und Panzern waren Transponder und Leseeinheiten angebracht, um zu erkennen, ob die zu beschießende Stellung oder die anfliegenden Flugzeuge anzugreifen waren oder nicht. Bis heute werden Nachfolgesy- steme in den Armeen eingesetzt. Harry Stockman gilt als derjenige, der die Grundlagen von RFID mit seiner Veröffentlichung„Communication by Means of Reflected Power“ im Oktober 1948 gelegt hat.

Ende der 1960er-Jahre wurde als eine von vielen proprietären Lösungen die„Siemens Car Identification“, kurz SICARID, entwickelt. Damit war es möglich, zunächst Eisen- bahnwagen und später Autoteile in der Lackiererei eindeutig zu identifizieren. Einge- setzt wurde es bis in die 1980er-Jahre. Die Identifikationsträger waren Hohlraumre- sonatoren, die durch das Eindrehen von Schrauben einen Datenraum von 12 bit abdek- ken konnten. Abgefragt wurden sie durch eine lineare Frequenzrampe. Diese Hohl- raumresonatoren können als erste rein passive und elektromagnetisch abfragbare Trans- ponder betrachtet werden. Der erste passive Backscatter-Transponder der heute noch verwendeten Bauart mit eigener digitaler Logikschaltung wurde erst 1975 in einem IEEE -Aufsatz vorgestellt.

In den 1970er-Jahren wurden die ersten primitiven kommerziellen Vorläufer der RFID- Technik auf den Markt gebracht. Es handelte sich dabei um elektronische Warensiche- rungssysteme (engl. Electronic Article Surveillance, EAS). Durch Prüfung auf Vorhan- densein der Markierung kann bei Diebstahl ein Alarm ausgelöst werden. Die Systeme basierten auf Hochfrequenztechnik bzw. niedrig- oder mittelffequenter Induktionsüber- tragung. Das Jahr 1979 brachte zahlreiche neue Entwicklungen und Einsatzmöglichkei- ten für die RFID-Technik. Ein Schwerpunkt lag dabei auf Anwendungen für die Land- wirtschaft, wie beispielsweise Tierkennzeichnung, z. B. für Brieftauben, Nutzvieh und andere Haustiere.

Gefördert wurde die Anwendung der RFID-Technik seit den 1980er-Jahren besonders durch die Entscheidung mehrerer amerikanischer Bundesstaaten sowie Norwegens, RFID-Transponder im Straßenverkehr für Mautsysteme einzusetzen. In den 1990em kam RFID-Technik in den USA verbreitet für Mautsysteme zum Einsatz. Es folgten neue Systeme für elektronische Schlösser, Zutrittskontrollen, bargeldloses Zahlen, Ski- pässe, Tankkarten, elektronische Wegfahrsperren und so weiter.

1999 wurde mit Gründung des Auto-ID-Centers am MIT die Entwicklung eines globa- len Standards zur Warenidentifikation eingeläutet. Mit Abschluss der Arbeiten zum Electronic Product Code (EPC) wurde das Auto-ID Center 2003 geschlossen. Gleich- zeitig wurden die Ergebnisse an die von Uniform Code Council (UCC) und EAN Inter- national (heute GS1 US und GS1) neu gegründete EPCglobal Inc. übergeben.

2006 ist es Forschem des Fraunhofer-Instituts für Fertigungstechnik und Angewandte Materialforschung (IFAM) in Bremen erstmals gelungen, temperaturunempfindliche RFID-Transponder in metallische Bauteile aus Leichtmetall einzugießen. Durch diese Verfahrensentwicklung ist es möglich, die herkömmlichen Methoden zur Produktkenn- zeichnung von Gussbauteilen durch die RFID-Technologie zu ersetzen und die RFID- Transponder direkt während der Bauteilherstellung im Druckgussverfahren in dem Bau- teil zu integrieren. 2011 gab das IFAM bekannt, dass es auch gelungen sei, einen RFID- Chip mit dem generativen Fertigungsverfahren des Laserschmelzens in chirurgische In- strumente mit komplexem Innenleben zu integrieren.

Die RFID-Transponder unterscheiden sich zunächst je nach Übertragungsfrequenz, Hersteller und Verwendungszweck voneinander. Der Aufbau eines RFID-Transponders sieht prinzipiell eine Antenne, einen analogen Schaltkreis zum Empfangen und Senden (Transceiver) sowie einen digitalen Schaltkreis und einen permanenten Speicher vor. Der digitale Schaltkreis ist bei komplexeren Modellen ein kleiner Mikrocontroller.

RFID-Transponder verfügen über einen mindestens einmal beschreibbaren Speicher, der ihre unveränderliche Identität enthält. Werden mehrfach beschreibbare Speicher eingesetzt, können während der Lebensdauer weitere Informationen abgelegt werden. Nach Anwendungsgebiet unterscheiden sich auch die sonstigen Kennzahlen, wie z. B. Taktffequenz, Übertragungsrate, Lebensdauer, Kosten pro Einheit, Speicherplatz, Le- sereichweite und Funktionsumfang.

Die Übertragung der Identinformation erfolgt bei Systemen, die nach ISO 18000-1 ff. genormt sind, folgendermaßen: Das Lesegerät (Reader), das je nach Typ ggf. auch Da- ten schreiben kann, erzeugt ein hochfrequentes elektromagnetisches Wechselfeld, dem der RFID-Transponder (RFID-Tag; von engl tag: Etikett, Anhängezettel) ausgesetzt wird. Die von ihm über die Antenne aufgenommene Hochfrequenzenergie dient wäh- rend des Kommunikationsvorganges als Stromversorgung für seinen Chip. Bei aktiven Tags kann die Energieversorgung auch durch eine eingebaute Batterie erfolgen. Bei halb-aktiven Tags übernimmt die Batterie lediglich die Versorgung des Mikrochips. Der so aktivierte Mikrochip im RFID-Tag decodiert die vom Lesegerät gesendeten Be- fehle. Die Antwort codiert und moduliert das RFID-Tag in das eingestrahlte elektroma- gnetische Feld durch Feldschwächung im kontaktfreien Kurzschluss oder gegenphasige Reflexion des vom Lesegerät ausgesendeten Feldes. Damit überträgt das Tag seine Se- riennummer (UID), weitere Daten des gekennzeichneten Objekts oder andere vom Le- segerät abgefragte Information. Das Tag erzeugt selbst also kein Feld, sondern beein- flusst das elektromagnetische Sendefeld des Readers.

Die RFID-Tags arbeiten je nach Typ im Bereich der Langwelle bei 125 kHz, 134 kHz, 250 kHz, der Mittelwelle bei 375 kHz, 500 kHz, 625 kHz, 750 kHz, 875 kHz, der Kurzwelle (HF) bei 13,56 MHz, der UHF bei 865-869 MHz (europäische Frequenzen) bzw. 950 MHz (US-amerikanische und asiatische Frequenzbänder) oder der SHF bei 2,45 GHz und 5,8 GHz. Die ffeigegebenen Frequenzen für LF- und UHF-Tags unter- scheiden sich regional für Asien, Europa und Amerika und sind von der ITU koordi- niert.

HF-Tags verwenden Lastmodulation, das heißt, sie verbrauchen durch Kurzschließen einen Teil der Energie des magnetischen Wechselfeldes. Dies kann das Lesegerät, theo- retisch aber auch ein weiter entfernter Empfänger, detektieren. Die Antennen eines HF- Tags bilden eine Induktionsspule mit mehreren Windungen.

UHF-Tags hingegen arbeiten im elektromagnetischen Fernfeld zum Übermitteln der Antwort; das Verfahren nennt man modulierte Rückstreuung. Die Antennen sind meist lineare, gefaltete oder spiralige Dipole, der Chip sitzt in der Mitte zwischen den linea- ren oder mehrfach gewinkelten Dipolarmen des RFID-Tags. Es gibt auch UHF-Tags ohne solche Antennen, deren Reichweite ist extrem kurz.

Damit ein Tag sowohl horizontal als auch vertikal gelesen werden kann, verwendet man häufig zirkulare Polarisation. Diese reduziert zwar das Signal-Rausch-Verhältnis, dafür ist irrelevant, in welcher Orientierung das Tag auf die Ware geklebt wird. Da Wasser die UHF-Energie sehr stark absorbiert und Metall diese elektromagnetischen Wellen sehr stark reflektiert, beeinflussen diese Materialien die Ausbreitung der Antennenfel- der. Weiterhin , verstimmen 1 dielektrische Untergrundmaterialien die Resonanzfrequenz der Antennen, daher ist es notwendig, UHF-Tags möglichst genau auf die Materialien der gekennzeichneten Objekte abzustimmen oder die Tags mit einer vom Untergrund abschirmenden Metallfolie auszustatten.

Die UHF- oder SHF-Technik sind wesentlich komplexer ausgelegt als die LF- oder HF- Technik. Aufgrund ihrer Schnelligkeit können UHF- und SHF-Tags bei einer Passage erheblich längere Datensätze übertragen.Ein handelsüblicher passiver UHF-Tag mit NXP-Chip nach ISO/IEC 18000-6C benötigt für den Chip etwa 0,35 Mikroampere an Strom. Die Energie dafür liefert das Strahlungsfeld des Readers. Da die Intensität qua- dratisch mit der Entfernung abnimmt, muss der Reader entsprechend stark senden; übli- cherweise verwendet man hier zwischen 0,5 und 2 Watt EIRP-Sendeleistung. Semiakti- ve Tags kommen für gleiche Reichweite mit einem Hundertstel dieser Sendeleistung aus.

Für komplexere Anwendungen können auch Kryptographiemodule oder externe Senso- ren wie z. B. GPS in den RFID-Transponder integriert sein. Die RFID-Sende- Empfangseinheiten unterscheiden sich in Reichweite, Funktionsumfang der Kontroll- funktionen und im Aussehen. So ist es möglich, sie direkt in Regale oder Personen- schleusen (z. B. bei der Zugangssicherung und in Toreinfahrten) zu integrieren. Die Vielzahl von unterschiedlichen Geräten und Etiketten ist im Rahmen der verschiedenen Normen (ISO/IEC-Standards ISO/IEC 18000-x) vollständig kompatibel. Es werden je- doch laufend neue proprietäre Lösungen vorgestellt, die von diesen Standards abwei- chen und zum Teil auch nicht gleichzeitig in einer Nachbarschaft verwendet werden können.

Auf verschiedenste Art kann es zu Problemen kommen, weil der RFID-Transponder di- rekt am Erzeugnis sitzt und dieses elektromagnetisch schlecht mit dem ausgewählten Tag verträglich ist. Um elektromagnetische Anpassungsprobleme zu umgehen, werden in der Logistik u. a. sogenannte Flap- oder Flag-Tags eingesetzt, die im rechten Winkel vom Produkt abstehen und so einen großen Abstand zum Produkt haben. Der Leseer- folg (Lesequote) einer RFID-Lösung kann von einer Vielzahl von Fehlerfallen gemin- dert werden (Tag defekt, Leser defekt, Tag fehlt, Leser offline, Bewegung in der fal- schen Richtung, zu schnell oder zu dicht nacheinander usw.).

Transponder bestehen aus:

-Mikrochip, von der Größe um einen Millimeter im Durchmesser.

-Antenne, meist in Form einer Spule. Bei Miniaturtranspondem beträgt der Durchmes- ser der Antennen in der Regel einige wenige Millimeter, bei Anwendungen mit größe- ren Reichweiten kann es zu Antennendurchmessern von bis zu einem halben Meter kommen.

-einem Träger oder Gehäuse. Das Gehäuse schützt die Transponderelektronik vor der Umgebung. Nur bei aktiven Transpondern: Eine Energiequelle, beispielsweise eine Bat- terie. Bei passiven Transpondern erfolgt die Energieversorgung über die Antenne von außen.

Maßgeblich für die Baugröße sind die Antenne und das Gehäuse; der Mikrochip kann hinreichend klein gefertigt werden. Dabei werden, bis auf die Antenne, alle benötigten elektronischen Bauelemente auf den Mikrochip integriert. Die Form und Größe der An- tenne ist abhängig von der Frequenz bzw. Wellenlänge und Anwendung. Je nach gefor- derter Anwendung werden Transponder in unterschiedlichen Bauformen, Größen und Schutzklassen angeboten. Die Reichweite von passiven Transpondern ist neben der Frequenz auch maßgeblich von der Antennen- oder Spulengröße (Inlaygröße) abhängig. Die Reichweite sinkt sowohl bei UHF als auch bei HF mit kleineren Antennen rapide ab.

Aktive RFID-Transponder können, je nach Einsatzgebiet, durchaus die Größe von Bü- chern besitzen (z. B. in der Containerlogistik). Jedoch ist es mit heutiger Technik auch möglich, sehr kleine passive RFID-Transponder herzustellen, die sich in Geldscheinen oder Papier einsetzen lassen. Transponder wurden ab Beginn des Einsatzes seit 1980 zunächst vorwiegend als„LF 125 kHz passive“ produziert und eingesetzt. ISOCARD- und CLAMSHELL-Card- Bauformen aus dem LF-125-kHz-Bereich sind die weltweit am häufigsten verwendeten Bauformen im Bereich Zutrittskontrolle und Zeiterfassung. Genauso existieren auch Bauformen, die im Autoschlüssel eingebaut sind (Wegfahrsperre) bzw. als Implantate, Pansenboli oder Ohrmarken zur Identifikation von Tieren dienen. Zudem gibt es die Möglichkeit zur Integration in Nägel oder PU-Disk-TAGs zur Palettenidentifikation, in Chipcoins (Abrechnungssysteme z. B. in öffentlichen Bädern) oder in Chipkarten (Zu- trittskontrolle).

Im Bereich elektronischer Fahrscheine, elektronischer Geldbörse oder elektronischer Ausweise findet die 13,56-MHz-Mifare- bzw. -ICODE-Technologie nach Standards wie ISO 15693 Anwendung. Die Transponderchips werden unter anderem von NXP Semiconductors hergestellt. In diesem Bereich gibt es auch spezielle Transponder, die direkt in metallischen Objekten wie z. B. metallische Werkzeugen eingesetzt werden können. Der Aufbau basiert auf einem Wickelkörper für die Antennenspule und Träger für den Transponderchip. Um den Transponder vor äußeren mechanischen Einflüssen und chemischen Medien zu schützen und für eine Einpressung in eine 4 mm- Lochbohrung ausreichend haltbar zu machen, sind entsprechende Gehäuseformen ver- fügbar. Diese Transponder, sie arbeiten ebenfalls im 13,56-MHz-Band, können aller- dings aufgrund der abschirmenden Wirkung der metallischen Umgebung nur im Nahbe- reich ausgelesen werden. Es ist dabei allgemein notwendig, das Auslesegerät und die Antennenspule in Form eines ca. 4 mm dicken Stiftes direkt auf den Transponder zu halten.

Das deutlichste Unterscheidungsmerkmal stellt die Art der Energieversorgung der RFID-Transponder dar. Passive RFID -Transponder versorgen sich aus den Funksigna- len des Abfragegerätes. Mit einer Spule als Empfangsantenne wird durch Induktion ähnlich wie in einem Transformator ein Kondensator aufgeladen, der es ermöglicht, die Antwort in Unterbrechungen des Abfragesignals zu senden. Das erlaubt einen empfind- licheren Empfang des Antwortsignals ungestört von Reflexionen des Abfragesignals von anderen Objekten. Bis allerdings genug Energie für ein Antwortsignal bereitsteht, vergeht eine Latenzzeit. Die geringe Leistung des Antwortsignals beschränkt die mögli- che Reichweite. Aufgrund der geringen Kosten pro Transponder sind typische Anwen- dungen jene, bei denen viele Transponder gebraucht werden, beispielsweise zur Aus- zeichnung von Produkten oder zum Identifizieren von Dokumenten. Oft geschieht das mit Reichweiten von lediglich wenigen Zentimetern, um die Zahl der antwortenden Transponder klein zu halten.

RFID-Transponder mit eigener Energieversorgung ermöglichen höhere Reichweiten, geringere Latenzen, einen größeren Funktionsumfang, etwa eine Temperatur Überwa- chung von Kühltransporten, verursachen aber auch erheblich höhere Kosten pro Ein- heit. Deswegen werden sie dort eingesetzt, wo die zu identifizierenden oder zu verfol- genden Objekte selbst teuer sind, z. B. bei wiederverwendbaren Behältern in der Con- tainerlogistik (für See-Container bisher nur vereinzelte Einführung, noch keine weltweit wirksame Übereinkunft) oder bei Lastkraftwagen im Zusammenhang mit der Mauter- fassung.

Batteriebetriebene Transponder befinden sich meist im Ruhezustand (sleep modus) und senden keine Informationen aus, bevor sie durch ein spezielles Aktivierungssignal akti- viert (getriggert) werden. Das erhöht die Lebensdauer der Energiequelle auf Monate bis Jahre. Es werden zwei Arten von gesondert mit energieversorgten RFID-Transpondern unterschieden:

-Aktive RFID-Transponder nutzen ihre Energiequelle sowohl für die Versorgung des Mikrochips als auch für das Erzeugen des modulierten Rücksignals. Die Reichweite kann - je nach zulässiger Sendeleistung - Kilometer betragen.

-Semi-aktive RFID-Transponder oder auch Semi-passive RFID-Transponder sind spar- samer, denn sie besitzen keinen eigenen Sender, sondern modulieren lediglich ihren Rückstreukoeffizienten, siehe Modulierte Rückstreuung. Dafür ist die Reichweite ab- hängig von Leistung und Antennengewinn des Senders auf maximal 100 m reduziert. Die anderen Vorteile gegenüber passiven Transpondern bleiben erhalten.

Für den Einsatz wurden bisher verschiedene ISM-Frequenzbänder vorgeschlagen und zum Teil europaweit oder international freigegeben:

Langwellen (LF, 30-500 kHz). Sie weisen eine geringe bis mittlere Reichweite (< 1 Meter) bei geringer Datenrate auf. Erkennungsraten von 35 Transpondern pro Sekunde für bis zu 800 Transpondern im Antennenfeld sind möglich. LF -Transponder sind etwas teurer in der Anschaffung, jedoch sind die Schreib-Lese-Geräte vergleichsweise gün- stig. Dies verschafft den LF-Systemen Kostenvorteile, sofern relativ wenige Transpon- der, jedoch viele Schreib-Lese-Geräte benötigt werden. Die LF-Systeme kommen mit hoher (Luft-)Feuchtigkeit und Metall zurecht und werden in vielfältigen Bauformen an- geboten. Diese Eigenschaften begünstigen den Einsatz in rauen Industrieumgebungen, sie werden jedoch auch z. B. für Zugangskontrollen, Wegfahrsperren und Lagerverwal- tung (häufig 125 kHz) verwendet. Einige LF-Versionen eignen sich auch für den Ein- satzfall in explosionsgefährdeten Bereichen und sind ATEX-zertifiziert.

Kurzwellen (HF, 3-30 MHz). Kurze bis mittlere Reichweite, mittlere bis hohe Übertra- gungsgeschwindigkeit. Mittlere bis hohe Preisklasse für Lesegeräte mit Reichweiten größer 10 cm, günstige Lesegeräte für kurze Reichweite. In diesem Frequenzbereich ar- beiten die sog. Smart Tags (meist 13,56 MHz).

Sehr hohe Frequenzen (UHF, 433 MHz (USA, DoD), 850-950 MHz (EPC und ande- re)). Hohe Reichweite (2-6 Meter für passive Transponder ISO/IEC 18000-6C; um 6 Meter und bis 100 m für semiaktive Transponder) und hohe Lesegeschwindigkeit. Ein- satz z. B. im Bereich der manuellen, halbautomatischen, automatisierten Warenvertei- lung mit Paletten und Container-Identifikation (Türsiegel, License-Plates) und zur Kon- trolle von einzelnen Versand- und Handelseinheiten (EPC-Tags) sowie für Kfz- Kennzeichen (bisher nur in Großbritannien). Typische Frequenzen sind 433 MHz, 868 MHz (Europa), 915 MHz (USA), 950 MHz (Japan). Durch ihren geringen Preis werden sie inzwischen auch dauerhaft auf Produkten für den Endverbraucher wie zum Beispiel Kleidung eingesetzt, ihre Reichweite von mehreren Metern verursacht jedoch manchmal falsche Lesungen durch die Leser, zum Beispiel durch Reflexionen.

Mikrowellen-Frequenzen (SHF, 2,4-2, 5 GHz, 5,8 GHz und darüber). Kurze Reichweite für ausschließlich semi-aktive Transponder von 0,5 m bis 6 m bei höherer Lesege- schwindigkeit wegen hoher Passagegeschwindigkeit für Fahrzeuganwendungen (PKW in Parkhäusem, Waggons in Bahnhöfen, LKW in Einfahrten, alle Fahrzeugtypen an Mautstationen).

Die älteren Typen der RFID-Transponder senden ihre Informationen, wie in der Norm ISO/IEC 18000 vorgesehen, in Klartext. Neuere Modelle verfügen zusätzlich über die Möglichkeit, ihre Daten verschlüsselt zu übertragen oder Teile des Datenspeichers nicht jedem Zugriff zu öffnen. Bei speziellen RFID-Transpondem, die beispielsweise zur Zu- griffskontrolle von externen mobilen Sicherheitsmedien dienen, werden die RFID- Informationen bereits nach AES-Standard mit 128-Bit verschlüsselt übertragen.

Keying/Modulation bezeichnet ein Verfahren, um digitale Signale über analoge Über- tragungskanäle leiten zu können. Der Begriff Keying kommt aus den Anfangszeiten des -Telegraphen. Modulationsverfahren sind unter anderem:

-Amplitude Shift Keying (ASK): verwendet beim proximity and vicinity coupling -Frequency Shift Keying (FSK, 2 FSK): verwendet beim vicinity coupling

-Phase Shift Keying (PSK, 2 PSK): verwendet beim close coupling

-Phasenjittermodulation, (PJM): statistisches Modulationsverfahren und in ISO/IEC 18000-3 für die Anwendung bei RFIDs genormt.

-Höhere Modulationsverfahren wie die Phasenjittermodulation werden bei RFID- Systemen dann eingesetzt, wenn sehr viele RFIDs in räumlicher Nähe nahezu zeitgleich ausgelesen werden sollen.

Die Leitungscodierung („encoding“) legt zwischen Sender und Empfänger fest, wie die digitalen Daten so umcodiert werden, um bei der Übertragung möglichst optimal an die Eigenschaften des Übertragungskanals, in diesem Fall der Funkstrecke, angepasst zu sein. Die meistverwendeten Kanalcodierungsverfahren im RFID-Bereich sind:

-Biphase-Mark-Code und der dazu invertierte Biphase-Space-Code

-Pulsphasenmodulationen in Kombination mit dem RZ-Code

-Manchester-Code

-Miller-Code

Einen Sonderfall stellen SAW-Tags dar, die SAW-Effekte nutzen. Dabei wird die Ken- nung in der Laufzeit der reflektierten Signale kodiert.

Unter dem Begriff Bulk-Erkennung versteht man eine Nutzung bekannter Protokolle, in dem einzelne RFID-Tags unmittelbar nacheinander gelesen werden, wobei sich dieser Prozess selbst organisiert. Das heißt, dass

-sich nicht alle Tags gleichzeitig bei dem gleichen Reader melden, und

-jedes Tag möglichst lediglich einmal gelesen wird, und

-ein einmal gelesenes Tag nach dem ersten erfolgreichen Lesen schweigt, bis es das Le- sefeld verlässt oder das Lesefeld abgeschaltet wird,

-oder das einzelne dort bereits bekannte Tag vom Leser direkt erneut aktiviert wird. Viele Anwendungen dieser auch„Singulation“ genannten funktechnischen Vereinze- lung soll es dem Empfänger ermöglichen, die verschiedenen Identitäten der vorhande- nen Tags streng nacheinander zu erkennen. Das Konzept ist in der Norm in verschiede- ner Ausprägung vorgesehen, aber bisher erkennbar nicht verbreitet. Weitere proprietäre Ausprägungen finden sich bei den verschiedenen Herstellern. An technischen Proble- men mit passiven Tags ändert nichts, dass aktive Tags sich willkürlich bei einem Emp- fänger melden können.

Folgendes Problem wird allein durch RFID-Tags nicht gelöst: Zu erkennen, wie viele Objekte, wie viele Tags undwie viele gelesene Kennzeichen einen guten Leseerfolg ausmachen. Seit ersten Berichten bis heute sind keine Einrichtungen der Bulk- Erkennung bekannt, die eine vollständige Erfassung sicherstellen (2011) und damit für eine Inventarisierung oder eine Kontrolle der Vollständigkeit ungeeignet. Wenn im Lesevorgang kein Anti-Kollisionsverfahren und keine Stummschaltung wir- ken, ist die geometrische Vereinzelung außerhalb des Lesebereichs und die Beschrän- kung auf jeweils ein Tag im Lesebereich die Verfahrensweise mit generell besserer Er- kennungsquote.

Die Antikollision beschreibt eine Menge von Prozeduren, die den Tags ermöglichen, gleichzeitig zu kommunizieren, also das Überlagern mehrerer verschiedener Signale ausschließen sollen. Das Antikollisionsverfahren regelt die Einhaltung der Reihenfolge bzw. Abstände der Antworten, beispielsweise durch zufällig verteiltes Senden dieser Responses, so dass der Empfänger jedes Tag einzeln auslesen kann. Die Leistung der Antikollisionsverfahren wird in der Einheit„Tags/s“ gemessen. Es gibt vier Grundarten für Antikollisions- oder Multi-Zugangsverfahren:

-Space Division Multiple Access (SDMA): Abstände, Reichweite, Antennenart und Po- sitionierung werden eingestellt

-Time Division Multiple Access (TDMA): die Zugangszeit wird zwischen den Teil- nehmern aufgeteilt

-Frequency Division Multiple Access (FDMA): verschiedene Frequenzen werden ver- wendet

-Code Division Multiple Access (CDMA)

Typische Antikollisionsverfahren im RFID-Bereich sind:

-Slotted ALOFLA: eine Variante des ALOFIA- Verfahrens aus den 1970er-Jahren (Aloha Networks, Hawaii). Aloha war die Inspiration für das Ethernet-Protokoll und ist ein— TDMA-Verfahren.

-Adaptive Binary Tree: Dieses Verfahren verwendet eine binäre Suche, um einen be- stimmten Tag in einer Masse zu finden.

-Slotted Terminal Adaptive Collection (STAC): hat Ähnlichkeiten mit dem ALOFLA- Verfahren, ist aber erheblich komplexer.

-EPC UHF Class I Gen 2: ist ein Singulationsverfahren. Alle RFID-Tags müssen eindeutig gekennzeichnet sein, damit der Empfänger Respon- ses/Requests aller Tags erkennen kann: RFID-Tags, in denen diese Kennzeichnung ge- ändert werden kann, sind für eine sichere Prozessführung in einem offenen System oh- ne praktischen Wert (Beispiel: EPC Generation 1).

Mindestmerkmale eines RFID-Systems sind:

-ein Nummemsystem für RFID-Tags und für die zu kennzeichnenden Gegenstände^ 1] eine Verfahrensbeschreibung für das Kennzeichnen und für das Beschreiben und das Lesen der Kennzeichen

-ein an Gegenständen oder Lebewesen angebrachtes RFID-Tag, das elektronisch und berührungslos eine seriell auszulesende Information bereitstellt

ein dazu passendes RFID-Lesegerät

Viele Tags unterstützen auch eine oder mehrere der folgenden Operationen: Die Tags können über einen sogenannten„kill code“ oder z. B. durch ein Magnetfeld permanent deaktiviert werden (engl kill, disable). Die Tags erlauben ein einmaliges Schreiben von Daten (engl write once). Die Tags können mehrmals mit Daten beschrieben werden (engl write many).Antikollision: Die Tags wissen, wann sie warten oder Anfragen be- antworten müssen. Sicherheit: Die Tags können (auch verschlüsselt) ein geheimes Passwort verlangen, bevor sie kommunizieren. RFID kann im Duplexbetrieb oder se- quentiell Daten mit dem Lesegerät austauschen. Man unterscheidet: full duplex System (FDX), half duplex System (HDX) und/oder sequential System (SEQ)

Die Kapazität des beschreibbaren Speichers eines RFID-Chips reicht von wenigen Bit bis zu mehreren KBytes. Die 1 -Bit-Transponder sind beispielsweise in Warensiche- rungsetiketten und lassen nur die Unterscheidung„da“ oder„nicht da“ zu. Der Daten- satz des Transponders wird bei dessen Herstellung fest in ihm als laufende eindeutige Zahl (inhärente Identität) oder bei dessen Applikation als nicht einmalige Daten (z. B. Chargennummer) abgelegt. Moderne Tags können auch später geändert oder mit weite- ren Daten beschrieben werden. Beschreibbare Transponder verwenden derzeit meist folgende Speichertechnologien: -nicht-flüchtige Speicher (Daten bleiben ohne Stromversorgung erhalten, daher geeig- net für induktiv versorgte RFID): EEPROM und/oder FRAM

-flüchtige Speicher (benötigen eine ununterbrochene Stromversorgung, um die Daten zu behalten): SRAM

Passive Transponder entnehmen ihre Betriebsspannung dem (elektromagnetischen) Feld und speichern sie für den Antwortvorgang in Kapazitäten im Chip. Das Lesegerät beleuchtet den Chip und dieser reflektiert einen geringen Teil der Energie. Die einge- strahlte Energie muss etwa 1.000-mal größer sein als die für den Antwortvorgang ver- fügbare Energie. Damit benötigen passive Transponder das mit Abstand energiereichste Lesefeld.

Semi-passive (auch genannt semi-aktive) Transponder besitzen eine (Stütz-)Batterie für den volatilen (flüchtigen) Speicher und zum Betrieb angeschlossener Sensoren, nicht jedoch für die Datenübertragung. Das Energieverhältnis zwischen Beleuchtung und Rückstrahlung entspricht dem passiver Tags.

Aktive Transponder nutzen Batterien für den Prozessor und auch für den Datentransfer, sind mit einem eigenen Sender ausgestattet und erreichen so eine höhere Reichweite. Das Abfragesignal des Lesegeräts ist etwa so gering wie das Sendesignal des Transpon- ders, somit ist der Lesevorgang für aktive Transponder verglichen mit passiven Trans- pondern besonders störungsarm.

Baken-Transmitter, die fortlaufend intermittierend senden und nicht auf eine Anregung reagieren, arbeiten immer mit Batterien (Primärbatterien oder Akkus). Das Energiever- hältnis zwischen Abfrage und Antwortsignal entspricht dem aktiver Tags. Der Sende- vorgang für Baken-Transponder ist ungeachtet der steten Sendefunktion verglichen mit passiven Transpondern besonders störungsarm.

In Deutschland werden aktive Transponder auch als Telemetriegeräte (siehe unten) klassifiziert. Auch Telemetrie-SRD (Funkverbindungen über kurze Entfernungen, z. B. von Sensoren) werden teilweise als RFID bezeichnet, sie benutzen einen aktiven Sen- der, der beispielsweise mit Solarzellen oder der Bewegung des Gegenstandes (z. B. Rei- fendrucksensor) mit Energie versorgt wird. Bei warmblütigen Lebewesen ist auch die Versorgung aus einer Temperaturdifferenz in Entwicklung.

Technisch können größere Distanzen erreicht werden, typisch sind jedoch lediglich die angegebenen Reichweiten bei zugelassenen Sendefeldstärken. Dabei ist die Beleuch- tungsfeldstärke für passive Tags (Abfrage durch Lesegeräte) etwa um den Faktor 1.000 höher als die Sendefeldstärke aktiver Tags (Empfang durch Lesegeräte). Frequenzbeeinflussung erfolgt durch:

-Reflexion / gerichtete bzw. ungerichtete Streuung (backscatter): Frequenz der reflek- tierten Welle ist die Sendefrequenz des Lesegerätes

-Dämpfungsmodulation: durch den Transponder wird das Feld des Lesegerätes beein- flusst (Frequenzverhältnis 1 :1)

-subharmonische Welle (Frequenzverhältnis 1 :n)

-Erzeugung von Oberwellen (n-fache) im Transponder

-Kopplungsmethoden

-elektrostatische Felder in kapazitiver Kopplung (für RFID eher die Ausnahme, kein Standard)

-magnetische Felder für induktive Kopplung oder Nahfeldkopplung (NFC): Datenüber- tragung und meist auch Energieversorgung erfolgen über das magnetische Nahfeld der Spulen im Lesegerät und im Tag (üblich sind Rahmenantennen oder Ferritantennen). Diese Kopplung ist üblich bei Frequenzen von 135 kFIz (ISO 18000-2) und 13,56 MFIz (ISO 18000-3) sowie für 13,56 MHz NFC (ISO 22536).

-elektromagnetische Dipolfelder für Femfeldkopplung: Datenübertragung und oft auch Energieversorgung erfolgen mit Antennen (üblich sind Dipolantennen oder Spiralan- tennen). Diese Kopplung ist üblich bei Frequenzen von 433 MHz (ISO 18000-7), bei 868 MHz (ISO 18000-6) und bei 2,45 GHz (ISO 18000-4)

Generell ist die Logistik die Hauptüberschrift für das Einsatzgebiet. Logistische Pro- blemstellungen gehen quer durch alle Branchen. Hier gibt es ein riesiges Rationalisie- rungspotential auszuschöpfen. Der Durchbruch zu allgemeiner Ausbreitung scheitert in der Regel an Problemen, den Geschäftsfall (business case) über Unternehmensgrenzen hinweg zu budgetieren (s. a. Zählpunkt (Logistik).

Manche Institutionen erhoffen sich darüber hinaus eine verbesserte Überwachung im Personen- und Warenverkehr. Der technische Aufwand und die Kosten auf der RFID- Seite sind überschaubar. Die zu erwartenden riesigen Datenmengen begrenzen die prak- tische Ausführung. Der Begriff„fälschungssicher“ in diesem Zusammenhang wird sich nach kurzer Zeit re- lativieren. Die folgende Aufzählung enthält nur einige, derzeit (2013) wichtige Gebiete: Die e-Plate-Nummemschilder identifizieren sich automatisch an Lesegeräten. Dadurch sind Zugangskontrollen, Innenstadtmautsysteme und auch Section-Control- Geschwindigkeitsmessungen möglich. Bei entsprechend dichtem Sensorennetz lassen sich auch Wegeprofile erstellen. In einem Großversuch hat das britische Verkehrsmini- sterium im April/Mai 2006 etwa 50.000 Kennzeichenschilder mit RFID-Funkchips aus- statten lassen.

Ziel ist die Informationssammlung über die Fälschungsquote sowie die Gültigkeit von Zulassung und Versicherungsschutz. Bei erfolgreicher Erprobung ist eine flächendek- kende Einführung geplant. Die Erfassung erfolgt im Abstand von weniger als zehn Me- tern. Eine Verwertung der Geschwindigkeitsmessung mit Hilfe dieser Technik ist durch die britische Rechtsprechung derzeit stark eingeschränkt. Mit Stand 2006 sind Waggons und Lokomotiven in den USA und Kanada an beiden Seiten mit je einem etwa B*HxT 25 x 5 x 1 cm großen RFID-Tag markiert, das an etwa 500 Stationen von der Seite während der Fahrt abgelesen wird.

Die Automobil Industrie verwendet RFID für die automatisierte Bauzustandsdokumen- tation von Versuchsfahrzeugen und Prototypenteilen (Projekt Gläserner Prototyp). Be- reits im Jahr 2003 wurde bekannt, dass die Europäische Zentralbank mit dem japani- schen Elektronikkonzem Hitachi über eine Integration von RFID -Transpondern in Eu- ro-Banknoten verhandelte. Auf dem sogenannten m-Chip (0,16 mm 2 x 0,064 mm dick) ist eine eindeutige 38-stellige Ziffemfolge (128 Bit) gespeichert. Mit einem solchen RFID-Chip gekennzeichnete Banknoten sollen besser gegen Fälschung geschützt sein. Vorstellbar wäre aber auch eine lückenlose Dokumentation des Umlaufs. Aufgrund der mit der Implementierung verbundenen Kosten sowie datenschutzrechtlicher Probleme ist die Einführung bislang nicht vorgesehen.

Debit- und Kreditkarten mit Funk-Bezahlsystemn erlauben auch eine Identifizierung. Dem Sicherheitsrisiko, das durch möglicherweise unbemerktes Auslesen und Abbuchen entstehen könnte, wird dabei durch Begrenzung der Zahlbeträge auf einen Maximalbe- trag oder auf ein gewisses Guthaben begegnet. Beispiele sind hier das Paypass-System von MasterCard.

RFID-Chips sind in allen seit dem 1. November 2005 ausgestellten deutschen Reisepäs- sen sowie ab dem 1. November 2010 in allen Personalausweisen enthalten. Der Schweizer Pass wird seit dem 1. März 2010 mit RFID-Chip ausgeliefert. [19] Im No- vember 2004 genehmigte die US-amerikanische Gesundheitsbehörde (FDA) den Ein- satz des„VeriChip“ am Menschen. Der Transponder der US-amerikanischen Firma Applied Digital Solutions wird unter der Haut eingepflanzt. Geworben wird mit einfa- cher Verfügbarkeit lebenswichtiger Informationen im Notfall. Andere Lösungen arbei- ten dagegen mit Patientenarmbändem und koppeln diese Daten über den PDA des me- dizinischen Personals mit dem Patienteninformationssystem im Krankenhaus.

Seit den 1970er-Jahren kommen RFID-Transponder bei Nutztieren zum Einsatz. Außer der Kennzeichnung von Nutztieren mit Halsbändern, Ohrmarken und Boli werden Im- plantate bei Haustieren (EU-Heimtierausweis, ISO/IEC 11784 und ISO/IEC 11785) verwendet. Auch die Tiere im Zoo erhalten solche Implantate.

125 kHz - international für Zootierhaltung, Nutztieridentifikation, Meeresschildkröten- Erfassung, Forschung. ISO 134,2 kHz - (ursprünglich europäischer) internationaler Standard in der Nutztieridentifikation, Implantate bei Haustieren.

Die US-Arzneimittelbehörde FDA empfiehlt den Einsatz von RFID-Technik im Kampf gegen gefälschte Medikamente. Bisher werden jedoch überwiegend optische Verfahren eingesetzt, da deren materieller Aufwand wirtschaftlich vertretbar ist. Für den Transport temperaturempfindlicher Medizinprodukte werden vielfach RFID-Tags mit Sensorfünk- tionen an den Transportbehältern eingesetzt. Die Aufzeichnung dokumentiert eine Ver- letzung von Transportbedingungen und unterstützt den Schutz der Patienten durch qua- lifiziertes Verwerfen eines falsch transportierten Gutes. Im industriellen Einsatz zur prozesssicheren Steuerung und elektronischen Überwa- chung von Um- und Füllvorgängen. Die RFID-Antenne befindet sich in der anlagensei- tigen Kupplungshälfte, der RFID -Transponder in der beweglichen Kupplungshäfte, z. B. schlauchseitig an einem Kesselwagen. In gekuppeltem Zustand werden so alle be- nötigten Informationen kontaktlos übertragen. Die Anlagensteuerung kann dann auto- matisch nachfolgende Prozessschritte starten.

RFID-Tags werden eingesetzt, um Leiterplatten oder andere Bauteile rückverfolgbar zu machen. Leiterplatten wurden bislang häufig mit Barcodes gekennzeichnet. In der Tex- til- und Bekleidungsindustrie ist ein zunehmend flächendeckender Einsatz von RFID aufgrund einer im Vergleich zu anderen Branchen höheren Marge sehr wahrscheinlich. Als weltweit erstes Unternehmen hat Lemmi Fashion (Kindermode) die komplette Lie- ferkette auf RFID umgerüstet und eine weitreichende Integration mit der Warenwirt- schaft umgesetzt. Die Firma Levi Strauss & Co. hat ebenfalls begonnen, ihre Jeans mit RFID-Etiketten auszustatten. Ein weiterer RFID-Pionier ist die Firma Gerry Weber, die sich seit 2004 in diversen Projekten mit der Technologie beschäftigte und seit 2010 in alle Bekleidungsstücke einen RFID-Tag integriert, der gleichzeitig als Warensicherung fungiert. Seit 2012 wird RFID vom Modeunternehmen C&A verwendet[28], seit 2013/2014 durch die Adler Modemärkte. Die Sportartikel-Kette Decathlon näht seit 2013 RFID-Etiketten in Textilien ihrer Flausmarken ein und bringt diese an Drittpro- dukten an.

Für See-Container sind spezielle mechanische Siegel mit zusätzlichen RFID-Tags ent- worfen worden, die in Einzel fällen bereits benutzt werden. Sie werden entweder wie- derholt genutzt (semi-aktive RFID-Tags nach ISO/IEC 17363, ab 2007) oder einmalig eingesetzt (passive RFID-Tags nach ISO/IEC 18185, ab 2007). Bisher gibt es keine Verpflichtung zur Verwendung solcher elektronischen Siegel.

Als Bestandteil des Fahrzeugschlüssels bilden Transponder das Rückgrat der elektroni- schen Wegfahrsperren. Der Transponder wird dabei im eingesteckten Zustand über eine Zündschloss-Lesespule ausgelesen und stellt mit seinem abgespeicherten Code das er- gänzende Schlüsselelement des Fahrzeugschlüssels dar. Für diesen Zweck werden übli- cherweise Crypto-Transponder eingesetzt, deren Inhalt nicht ohne deren Zerstörung manipuliert werden kann. Die Diebstahlsicherung erkauft man sich mit dem hohen Aufwand von in der Praxis 200€ für den Ersatz eines verlorenen Schlüssels, samt Codierung, zu deren Durchführung alle in Zukunft gültigen Schlüssel, das Fahrzeug und das Gerät des Markenhändlers zusammengeführt werden müssen.

In Asien sowie größeren Städten weit verbreitet sind berührungslose, wiederaufladbare Fahrkarten. Weltweiter Marktführer für das sogenannte Ticketing ist NXP (hervorge- gangen aus Philips) mit seinem Mifare-System. In den USA und in Europa werden Sy- steme zur Zutrittskontrolle und Zeiterfassung bereits häufig mit RFID-Technik reali- siert. Hier werden weltweit meist Mifare oder HiD bzw. iClass5 und in Europa haupt- sächlich Legic, Mifare und teilweise unterschiedliche 125-kHz-Verfahren (Hitag, Miro usw.) eingesetzt.

Manche Kreditkarten-Anbieter setzten RFID-Chips bereits als Nachfolger von Magnet- streifen bzw. Kontakt-Chips ein. 2006 kam die RFID-Technik in Deutschland bei den Eintrittskarten der Fußball-Weltmeisterschaft zum Einsatz. Ziel ist es, den Ticket- schwarzhandel durch Bindung der Karte an den Käufer zu reduzieren. Bei Bayer 04 Le- verkusen, VfL Wolfsburg und Alemannia Aachen kommt diese Technologie bereits bei Bundesliga-Spielen zum Einsatz. Fast alle größeren Skigebiete der Alpen verwenden heutzutage nur noch kontaktlose Skipässe. Der Deutsche Golf Verband e.V. stellt sei- nen Mitgliedern bereits seit 2007 den optionalen DGV-AusweisPlus mit optionalem Mifare-Chip zur Verfügung. Im Ausweisjahr 2016 wurden über 240.000 DGV- AusweisPlus (Jahresausweise) ausgegeben.

In Bibliotheken jeder Größe und Typs wird RFID zur Medienverbuchung und Siche- rung verwendet. Prominente Installationen sind die Münchner Stadtbibliothek, die Hamburger Öffentlichen Bücherhallen, die Wiener Hauptbücherei, die Stadtbibliothek Stuttgart und die Hauptbibliotheken der Technischen Universität Graz und des Karlsru- her Instituts für Technologie. 2013 wird auch der Verbund der Öffentlichen Bibliothe- ken Berlins die Umstellung seines Medienmanagements auf RFID abschließen. Auch die Bibliothek der Universität Konstanz stattet ihre Medien im Rahmen der Sanierung mit der RFED-Technologie aus.

Die RFID-Lesegeräte sind in der Lage, spezielle RFID-Transponder stapelweise und berührungslos zu lesen. Dieses Leistungsmerkmal bezeichnet man mit Pulkerfassung. Das bedeutet bei der Entleihe und Rückgabe, dass die Bücher, Zeitschriften und audio- visuellen Medien nicht einzeln aufgelegt und gescannt werden müssen. Der Biblio- theksbenutzer kann auf diese Weise an RFID-Selbstverbuchungsterminals alle Medien selbständig ausleihen. Auch die Medienrückgabe kann automatisiert werden: Eigens entwickelte RFID-Rückgabeautomaten ermöglichen eine Rückgabe außerhalb der Öff- nungszeiten. An den Türen und Aufgängen befinden sich Lesegeräte, die wie Sicher- heitsschranken in den Kaufhäusern aussehen. Sie kontrollieren die korrekte Entleihe. Mit speziellen RFID-Lesegeräten wird die Inventarisierung des Bestandes und das Auf- finden vermisster Medien spürbar einfacher und schneller.

Große Einzelhandelsketten wie Metro, Rewe, Tesco und Walmart sind an der Verwen- dung von RFID bei der Kontrolle des Warenflusses im Verkaufsraum interessiert. Die- ser Einsatz hat in letzter Zeit zu Diskussionen geführt. Der Vereinfachung für den Kun- den (z. B. Automatisierung des Bezahlvorganges) stehen Datenschutzbedenken gegen- über. Die chinesische Einzelhandelskette BingoBox, die kleine Märkte ohne Personal betreibt, verwendet RFID-Etiketten an jedem Stück Handelsware.

Im industriellen Einsatz in geschlossenen Arealen sind fahrerlose Transportsysteme im Einsatz, bei der die Position mit Hilfe von in geringen Abstand zueinander im Boden eingelassenen Transpondern aufgrund von deren bekannter Position über die gelesene Identität und über Interpolation bestimmt wird. Solche Systeme sind davon abhängig, dass ausschließlich zuvor bestimmte Trassen und Routen befahren werden. Für Schie- nenfahrzeuge kommt die magnetisch gekoppelte Eurobalise zum Einsatz. In den österreichischen Bezirken Kufstein und Kitzbühel wurde bereits im Jahr 1993 ein auf RFID basierendes Müllmesssystem nach Volumenmessung in Litern entwickelt und flächendeckend eingeführt; sämtliche Transponder der Erstausgabe (AEGID Tro- van ID200 125 kHz) aus dem Jahr 1993 sind dort trotz erneuerter Abfuhrfahrzeuge (und Reader-Einheiten) bis heute in der Originalbestückung unverändert im Einsatz. Eine Müllvorschreibung erfolgt bei diesem System nach tatsächlich gemessenen Litern (lau- fende Abrechnung je Quartal). Das System verknüpft über die Adresselemente Straße, Hausnummer, Türe und Top, automatisiert eine Personenanzahl (Datenabffage aus dem zentralen Melderegister Österreichs) mit jedem Müllgefaß und summiert unabhängig von einer tatsächlich abgeführten Müllmenge diese virtuell errechnete Mindestmüll- menge auf die Müllgefäßkonten.

Zur Vermeidung eines sonst unweigerlichen Missbrauchs einer aufkommensgerechten Abfallvergebührung durch Vermüllung vergleicht das System am Jahresende eine tat- sächlich abgeführte Jahresmüllmenge je Gefäß mit einer virtuell aus der Personenanzahl errechneten Mindestmüllmenge (je Gemeinde 2-3 Liter je Woche und Person) und schreibt bei einer Unterschreitung der bemessenen Müllmenge eine Differenz am Jah- resabschluss jedenfalls vor. Das beschriebene System befindet sich seit mehr als 14 Jah- ren konfliktfrei und ohne technisch bedingten Datenverlust im Einsatz. Datenschutz- rechtlich relevante Abläufe finden ausnahmslos innerhalb der kommunalen Gemeinde- verwaltung statt, jeder Bürger kann auf Verlangen in seine Müllmessdaten in seiner Heimatgemeinde Einsicht nehmen.

Im deutschen Landkreis Celle werden Mülltonnen seit etwa 1993 mit Chips gekenn- zeichnet. Im Sommer 2013 wurden die alten Chips, die mittlerweile nicht mehr herge- stellt werden, durch Chips in Form eines Stiftsockelstifts ersetzt. Alle Restmüll-, Bio- und Papiertonnen werden damit ausgestattet. Der Zweckverband Abfall Wirtschaft Celle erfasst die Anzahl der Leerungen im Kalenderjahr und erstellt für Restmüll und Bioab- fall Gebührenbescheide unter Berücksichtigung der Leerungsanzahl. Bei Unterschrei- tung einer Mindestanzahl Leerungen wird der Bescheid über eine leerungsanzahlunab- hängige Grundgebühr ausgestellt. Das Gewicht oder Volumen wird nicht registriert, es gilt die Anzahl der Leerungen. Für Papiertonnen wird eine Statistik über die Zahl der gebührenfreien Leerungen geführt. Die Gelben Tonnen haben keine elektronische Kennzeichnung und werden gebührenfrei geleert.

In den deutschen Städten Bremen und Dresden sind Mülltonnen für die gebührenpflich- tige Abfuhr ebenfalls mit RFID-Transpondem versehen. Die gebührenfreie Abfuhr von Papier, Grünabfall und Verpackung wird hingegen nicht erfasst. Bei der Leerung erfas- sen die Abfuhrfahrzeuge mittels geeichter Waagen das Gewicht jeder einzelnen Tonne. Über RFID ist die Zuordnung des Abholgewichts jeder Tonne zu einem individuellen Haushalt möglich; die Bürger erhalten in Dresden eine Abrechnung, die auf dem tat- sächlich geleerten Gewicht (und nicht, wie sonst üblich, auf einer Volumenpauschale) basiert, bzw. in Bremen über die Anzahl der über die Pauschale hinaus erfolgten tat- sächlichen Leerungen (und nicht, wie sonst üblich, allein auf einer pauschalen Anzahl). In Großbritannien wurden mehrere hunderttausend Mülltonnen ohne Wissen der Bürger mit RFID-Transpondern versehen. Hintergrund soll die Absicht der britischen Kommu- nen sein, das Recyclingverhalten der Bürger zu erfassen.

Transponder am oder im Schlüssel dienen zur Kontrolle, wenn Workstations mit ent- sprechenden Lesegeräten ausgestattet sind, ebenso zur Benutzerauthentifizierung für spezielle externe mobile Sicherheitsfestplatten, wenn diese im Gehäuse mit entspre- chenden Lesegeräten ausgestattet sind.

Transponder am oder im Schlüssel dienen zur Zutrittskontrolle, wenn die Türen mit entsprechenden Lesegeräten oder mit entsprechenden Schließzylindern mit Leseoption ausgestattet sind.

Transponder dienen am Schuh(band) oder in der Startnummer eines Läufers bzw. am oder im Rahmen eines Rennrades als digitales Identifikationsmerkmai in Sportwett- kämpfen (Produktbeispiele: ChampionChip, Bibchip, DigiChip). An Terminals werden die Zeiten des Kommens und Gehens, evtl auch der Pausenzeiten erfasst, wenn der Nutzer sein RFID-Medium (meist Chipkarte oder Schlüsselanhänger) in Lesereichweite bringt. Im Feuerwehr- und Rettungsdienst können RFID Transponder verwendet wer- den, um Personen anhand der Transponder zu erkennen und damit u. a. die Ausgabe von Kleidung, Schutzausrüstung und Zubehör an zentraler Stelle (in sog. Kleiderkam- mern) zu organisieren. Darüber hinaus lassen sich Führerscheine mit kleinen Transpon- dern ergänzen, ohne dabei die gesetzliche Ausweispflicht negativ zu beeinflussen. Hiermit können beispielsweise Einsätzkräfte in entsprechenden Programmen die Taug- lichkeit zum Führen eines Kfz abfragen.

Weiterhin kann die Personal -Verwaltung vereinfacht werden, indem sich die Einsatz- kräfte anhand solcher RFID Transponder u. a. für Lehrgänge, Wettbewerbe und Übun- gen anmelden sowie die Teilnahme vor Ort bestätigen können. Einige Hersteller von Ladehilfsmitteln bieten Lösungen mit integrierten RFID -Transpondern nach ISO/IEC 18000-6C an. Beispiele sind Transportpaletten aus Kunststoff oder Holz sowie Kleinla- dungsträger. Die integrierten Transponder können bspw. für das Ladungsträger- bzw. Behältermanagement oder nach der temporären Verheiratung des Hilfsmittels mit dem zu transportierenden Gut als Identifikationsmerkmal der Ladeeinheit im Rahmen des Supply Chain Event Managements eingesetzt werden.

Bis 2020 sollten Flughäfen flächendeckend mit Lesegeräten für in den Gepäckanhänger integrierte RFID-Chips mit Personendaten wie Name und Geschlecht des Besitzers aus- gestattet sein. Damit soll der Gepäckverlust verringert und das Gepäck besser erfasst werden. Auf Flughäfen wie Las Vegas seit 2016 und Hong Kong, Mailand-Malpensa, Lissabon, Aalborg war 2017 RFID-Technik zusätzlich zu den Barcodes bereits einge- führt worden. Bis Ende 2023 soll nahezu alles Fluggepäck damit ausgestattet sein. Oh- ne RFID waren 1,8 % der Gepäckstücke fehlgeleitet worden.

Kumuliert wurden in den Jahren von 1944 bis 2005 insgesamt 2,397 Milliarden RFID- Chips verkauft. Die genaue Verbreitung nach Anwendung sieht wie folgt aus:

Im Jahr 2005 wurden 565 Millionen Hochffequenz-RFID-Tags (nach ISO/IEC 14443) abgesetzt, was insbesondere auf die erhöhte Nachfrage im Logistik-Bereich zurückzu- führen ist. Für das Jahr 2006 erwartete man einen weltweiten Absatz von 1,3 Milliarden RFID-Tags. U. a. wegen der zunehmenden Vereinheitlichung von RFID-Lösungen so- wie dem gewachsenen Austausch der Interessenten untereinander mussten Marktfor- scher ihre Prognose für das Marktwachstum im Jahr 2007 um 15 % senken. So wurde erwartet, dass man im Jahr 2007 mit rund 3,7 Milliarden US-Dollar für RFID-Services und -Lösungen weniger Umsatz machte.

In industriellen Anwendungsfallen stellen die Kosten für die Chips und deren zu erwar- tende Degression nicht den entscheidenden Faktor dar. Viel mehr ins Gewicht fallen In- stallationskosten für banal Erscheinendes wie Verkabelungen, Steckdosen, Übertrager und Antennen und so weiter, die in konventioneller Handwerksleistung installiert wer- den und bei denen deswegen kaum eine Kostendegression zu erwarten ist. Bei Wirt- schaftlichkeitsvergleichen von RFID zu zum Beispiel Barcode waren und blieben es diese Infrastrukturkosten, die durch die erwartbaren Rationalisierungserträge eines RFID-Systems nicht auszugleichen waren.

Die Kosten für die Transponder (also die RFED-Chips) liegen zwischen 35 Euro pro Stück für aktive Transponder in kleinen Stückzahlen und absehbar 5 bis 10 Cent pro Stück für einfache passive Transponder bei Abnahme von mehreren Milliarden.

Ein RFID-Kennzeichen ist zunächst ein offenes - also für alle mit der nötigen Technik Ausgerüsteten lesbares - individuelles Kennzeichen. Im Zusammenhang mit Bedenken zu RFID-Chips wird daher von„Spychips“ gesprochen.

Die Beschränkung der RFID-Technik ist in der technisch nutzbaren Reichweite und in der ausgewählten festen Information zu erkennen. RFID-Chips liefern keine Informati- on über den genauen Ort (Position), die Orientierung (Richtung) und Bewegung (Ge- schwindigkeit), sondern die Identität des Kennzeichens ohne weitere Information über den Träger des Kennzeichens.

Ortsinformationen erhält man aber immer indirekt über die Kenntnis des Standorts des Lesegerätes. An tragbaren Gegenständen angebrachte und so von Personen mit sich ge- führte RFIDs sind eine Gefahr für die informationelle Selbstbestimmung, da die ausge- lesenen Daten bei Kenntnis des Zusammenhangs personenbeziehbar sind (siehe unten). In dieser Hinsicht gleichen RFID einem eingeschalteten Mobiltelefon, dessen Standort ungefähr anhand der nächstgelegenen Funkzelle ermittelt werden kann. Aufgrund der vergleichsweise geringen Reichweite von wenigen Metern bei passiven RFID -Chips ist die Standortbestimmung in dem Moment des Auslesens aber wesentlich genauer, sogar noch genauer als bei ziviler Nutzung von GPS. Anhand strategisch geschickter Platzie- rung von mehreren Lesegeräten an diversen Verkehrs-Knotenpunkten, Engpässen, Tü- ren und dergleichen ließe sich auch ein zeitlich und räumlich relativ genaues Bewe- gungsprofil erstellen. Dabei besteht die Gefahr für die informationelle Selbstbestim- mung insbesondere aus dem Umstand, dass viele RFID versteckt angebracht sind, der Träger also nicht weiß, dass er sie mitführt, in Kombination mit einem völlig unbe- merkten Auslesevorgang.

Die Gefahr der RFID-Technik liegt zum Beispiel im Verlust der informationeilen Selbstbestimmung, d. h. die einzelne Person hat durch die„versteckten“ Sender keinen Einfluss mehr darauf, welche Informationen preisgegeben werden. Deshalb ist der be- vorstehende massenhafte Einsatz von RFID-Transpondem unter Datenschutz- Gesichtspunkten problematisch. Um dem zu entgehen, schlagen manche Kritiker die Zerstörung der RFID-Transponder nach dem Kauf vor. Dies könnte (ähnlich wie bei der Deaktivierung der Diebstahlsicherung) an der Kasse geschehen. Ein Nachweis, dass ein Transponder wirklich zerstört bzw. sein Speicher wirklich gelöscht wurde, ist für den Verbraucher in der Regel nicht möglich. Deshalb wird die Technik häufig auch abwer- tend als Schnüffelchip oder Schnüffel-Chip bezeichnet.

Weiterhin ist die Integration zusätzlicher, nicht dokumentierter Speicherzellen oder Transponder denkbar. Für den Verbraucher wird ein RFID-Transponder so zur Black Box, weshalb manche eine lückenlose Überwachung des gesamten Produktionsprozes- ses fordern. 2003 hatte der Metro-Konzern einen Teil seiner Kundenkarten mit RFID- Transpondem ausgestattet, ohne seine Kunden darauf hinzuweisen. Der Konzern wurde daraufhin mit der Negativ-Auszeichnung Big Brother Award bedacht. Metro setzt seine RFID-Versuche in seinem Future Store zwar fort, tauschte die betreffenden Kundenkar- ten jedoch um. Dies bewerten Datenschutz-Aktivisten als Folge ihrer Proteste. Generell kann sich ein Kunde gegen solche Praktiken erfolgreich wehren, wenn sie nicht heim- lich geschehen. 2007 erhielt die Deutsche Bahn AG den genannten Big Brother Award, weil sie weiterhin - ohne die Kunden zu informieren - die BahnCard 100 mit RFID- Chips ausstattete.

Angriffs- bzw. Schutzszenarien: Man kann versuchen zu verhindern, dass die RFID- Transponder ihre Energie erhalten. Dazu kann man beispielsweise die Batterie heraus- nehmen oder die RFID-Transponder in einen Faradayschen Käfig stecken. Wenn RFID- Transponder induktiv auf tiefen Frequenzen um 100 kHz ankoppeln, kann eine Ab- schirmung aus magnetisierbaren Materialien wie Eisen oder Mu-Metall verwendet wer- den. Bei hohen Frequenzen über 1 MHz genügt Umwickeln mit dünner Alufolie. Bei größeren RFID-Transpondem kann man im Röntgenbild die Spiralen der Antenne deut- lich erkennen. Wird sie an einer Stelle durchtrennt, funktioniert der RFID-Transponder nicht mehr.

Die Induktivität einer Spulenantenne ist meist mit einem integrierten Kondensator auf die Arbeitsfrequenz abgestimmt (Schwingkreis). Durch Überkleben mit Alufolie wird die Resonanzfrequenz sehr deutlich erhöht und die Reichweite entsprechend verringert. Ein elektromagnetischer Impuls auf Transponder und Antenne zerstört diese ebenfalls und macht sie unbrauchbar. Als Beispiel dafür wurde auf dem Chaos Communication Congress 2005 der RFID-Zapper vorgestellt. Hierbei handelt es sich um ein Gerät, wel- ches RFID-Transponder mittels eines elektromagnetischen Impulses deaktiviert. Auch die hohe Feldstärke eines Mikrowellenherds zerstört die Elektronik, allerdings unter dem Risiko der Beschädigung des Trägermaterials (z. B. einer Kundenkarte).

Aufwändig: Durch Aussendung eines Störsignals - bevorzugt auf der Frequenz, auf der auch der RFID-Transponder sendet - können die recht schwachen Signale des RFID- Transponders nicht mehr empfangen werden. Dieser Störsender kann aber seinerseits geortet werden. Die Übertragung kann auch gestört werden, indem man eine große Zahl (mehrere hun- dert bis tausend) RFID -Transponder auf einen gemeinsamen Träger (Gehäuse) setzt. Wird das dadurch entstehende Gerät („Jamming-Device“) in den Lesebereich eines Le- segeräts gebracht, antworten die Tags alle gleichzeitig. Selbst wenn das Lesegerät mit Antikollisionsverfahren arbeitet, ist es bei einer derart großen Zahl von Transpondern doch überfordert und auch nicht mehr in der Lage,„echte“ RFID-Tags (z. B. an Waren) zu erkennen. Solche Jamming-Vorrichtungen können als MP3-Player, Mobiltelefone usw. getarnt sein.

Kaum effektiv: Wie beim Telefon (per Draht oder drahtlos) kann man auch RFID- Signale ausspähen. Auf diese Weise kann man bestenfalls mitlesen, was der RFID ge- rade zurücksendet. Extrem aufwändig: RFID-Signale können manipuliert werden. Bei einem Speicherchip zur Authentifizierung werden daher auch Verschlüsselungsmetho- den eingesetzt.

Auf der IEEE Conference of Pervasive computing 2006 (Percom) in Pisa stellten Wis- senschaftler um Andrew S. Tanenbaum eine Methode vor, wie mit Hilfe von manipu- lierten RFID-Chips die Back-end-Datenbanken von RFID-Systemen kompromittiert werden können. Sie bezeichnen ihre Arbeit selbst als weltweit ersten RFID-Virus seiner Art.[57] Diese Darstellung wird allerdings mittlerweile von verschiedenen Stellen als zu theoretisch konstruiert angesehen.

Auf Um Verpackungen aufgebrachte RFID-Tags können nach derzeitigem Kenntnis- stand nicht so gut recycelt werden wie Um Verpackungen ohne RFID-Tags. Sortenreines Verpackungsmaterial wie Altglas, Altpapier oder Kunststoff kann durch die schwierig abzutrennenden RFID-Chips aus Kupfer und weiteren Metallen verunreinigt werden. Mögliche Risiken von Verunreinigungen des Recyclingmaterials durch RFID-Chips können aufwändigeres Recycling oder mindere Qualität der entstehenden Rohstoffe be- deuten. Derzeit gibt es keine Regeln zur Entsorgung der Transponder als Elektronikschrott beim Masseneinsatz wie beispielsweise bei Supermarktartikeln. Unter anderem wird an neuen Materialien (z. B. auf Polymerbasis) geforscht, was zur weiteren Senkung der Herstellungskosten sowie der Erschließung neuer Einsatzgebiete (z. B. in Ausweisen und Kleidung eingearbeitete Transponder) dienen soll.

Ein weiterer Punkt ist der Ressourcenverbrauch von RFID-Transpondem. Kostbare Edelmetalle gehen mit ihnen diffus auf Deponien und in Müllverbrennungsanlagen ver- loren. Obwohl ein einziger Transponder nur eine geringe Menge Edelmetall enthält, würde durch eine große Anzahl von Chips (z. B. in Lebensmittelverpackungen) der Ressourcenverbrauch erheblich steigen.

Im Journal of the American Medical Association wurde im Juni 2008 eine Studie veröf- fentlicht, die nachweist, dass zahlreiche diagnostische Messungen durch die zur Ausle- sung erforderlichen elektromagnetischen Wellen von RFID verfälscht werden. Geräte der Medizintechnik, die in jeder gut ausgestatteten Intensivmedizin -Station vorhanden sind, reagierten unterschiedlich empfindlich mit Messwert-Verzerrungen.„In einer Ent- fernung von einem Zentimeter bis sechs Metern kam es bei 34 von 123 Tests zu einer Fehlfunktion der medizinischen Geräte. In 22 Fällen wurden diese Störungen als ge- fährlich beurteilt, weil Beatmungsgeräte ausfielen oder selbsttätig die Atemfrequenz veränderten, weil Infusionspumpen stoppten oder externe Schrittmacher den Dienst ver- sagten, weil ein Dialysegerät ausfiel oder der EKG-Monitor eine nicht vorhandene Rhythmusstörung anzeigte.“

64. USIM-Karte

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen- Elementes (E) ausgebildet als USIM Karte.

Die USIM-Karte ist in der Alltagssprache eine SJM-Karte mit der Anwendungssoftware USIM. In der technischen Fachwelt wird die Hardware der SIM-Karte UICC genannt. Auf der UICC kann die Anwendungssoftware USIM laufen. Die meisten beim Mobil- funkanbieter erhältlichen SIM-Karten sind sowohl mit einer SIM-Anwendung, als auch mit einer USIM-An Wendung ausgestattet. Unterstützt die Mobilstation (zum Beispiel: Mobiltelefon) die USIM-Anwendung, wird die USIM-Anwendung auf der SIM-Karte ausgeführt. Unterstützt die Mobilstation die USIM-Anwendung nicht, wird die SIM- Anwendung auf der SIM-Karte ausgeführt. Die SIM-Anwendung erlaubt die Anmel- dung in GSM- und UMTS-Mobilfunknetze. Die Anmeldung in LTE -Mobilfunknetze ist mit der SIM-Anwendung nicht möglich. Die USIM-Anwendung erlaubt die Anmeldung in GSM-, UMTS- und LTE-Mobilfunknetze. Ob auf der SIM-Karte die USIM- Anwendung läuft, kann an den nachfolgend aufgelisteten Merkmalen erkannt werden.

Alle aufgelisteten Merkmale werden von der SIM-Anwendung nicht unterstützt:

-Anmelden im LTE-Mobilfunknetz

-Speichern von E-Mail-Adressen als Kontaktangabe im Telefonbuch der SIM-Karte. -Möglichkeit zum Bilden und Speichern von Gruppen im Telefonbuch der SIM-Karte. -Mehr als 255 Kontakte im Telefonbuch der SIM-Karte.

Die USIM-Anwendung ermöglicht der Mobilstation die bessere Verschlüsselung der über das Mobilfunknetz übertragenen Gespräche, Mitteilungen und Daten. Die Mobil- station kann die Authentifizierung der Mobilstation beim Mobilfunkanbieter dank der USIM-Anwendung besser absichem. Aus Sicherheitsgründen sollten in allen Mobilsta- tionen SIM-Karten mit der USIM-Anwendung betrieben werden. Mobilstationen, wel- che nicht die USIM-Anwendung unterstützen, sollten aus Sicherheitsgründen durch neuere Geräte ersetzt werden.

65. Eingabe und Ausgabe (I/O)

Es folgen weitere Ausfuhrungsformen der Erfindung: Verwendung des elektronischen Elementes (E) enthaltend wenigstens eine Ein-/Ausgabe (I/O) Einheit.

Mit Ein-/Ausgabe (abgekürzt E/A; englisch input/output, kurz I/O) bezeichnet man - als Begriff aus der EDV bzw. der Informatik - die Kommunikation / Interaktion eines Informationssystems mit seiner 'Außenwelt', z. B. seinen Benutzern oder anderen In- formationssystemen, und Aktionen zum Lesen und Schreiben von Daten. Eingaben sind Signale (z. B. Kommandozeilen) oder Daten, die das System empfängt, Ausgaben wer- den vom System gesendet. Was die , Außenwelf ist, hängt von der jeweiligen Betrach- tung ab: Aus Sicht des Computers als ausflihrender Prozessor sind z. B. auch die Pro- gramme ,Eingaben‘. In einem Programm (dies ist im Allgemeinen der Betrachtungsge- genstand) sind Anwendungsdaten von/für Benutzer(n) oder andere(n) Systeme(n) die wichtigsten Ein- oder Ausgaben; für Unterprogramme sind es u. a. auch die Aufruf- und Rückgabewerte (Parameter) korrespondierender Programme/-Teile, für einen Drucker sind es die zu druckenden Texte/Grafiken etc. inkl. dazugehörender Steuerkommandos. Eingaben und Ausgaben sind für die auf einem Computer laufenden Programme die Schnittstellen zu ihrer , Außenwelt 1 . Durch sie wird die Anwendung von Programmen oder auch Programmteilen (wie Unterprogrammen) für individuelle und unterschiedli- che Zwecke/Situationen möglich.

Zur Interaktion zwischen Benutzer und Programm stehen externe Peripheriegeräte zur Verfügung, die über das Betriebssystem (z. B. den Systembus oder / und Gerätetreiber) und mechanische bzw. andere elektronische Kommunikationsverbindungen betrieben und angesteuert werden. Dies ist nötig, da es viele unterschiedliche Protokolle gibt und sich die Geräte bezüglich Wortlänge und Verarbeitungsgeschwindigkeit unterscheiden können.

In der Methodik zur Softwareentwicklung wird im Zusammenhang mit Ein- und Aus- gaben danach unterschieden, ob Daten von außen (z. B. von Benutzern) an das System (oder umgekehrt) fließen oder ob sie Daten sind, die im System gespeichert bzw. gele- sen, geändert oder gelöscht werden (create, read, update, delete = CRUD). Der Prozes- sor spricht die externen Geräte über I/O-Controller (leistungsschwächer aber günstiger) oder I/O-Prozessoren (sehr leistungsstark aber teurer) an. Diese dienen als Abstrakti- onsschicht und werden von der CPU mit einfachen LESEN- (READ) und SCHREIBEN- (WRITE) Befehlen gesteuert. Die Geräte selbst sind direkt über Daten-, Steuer- und Adressbusse angeschlossen. Sie enthalten Puffer um Anfragen und Antwor- ten zwischenzuspeichem. Um diese Kommunikation durchzuführen, stehen Programmed Input/Output, Interrupt- Driven I/O sowie DMA zur Verfügung. Für Benutzer sind die Eingabegeräte in der Re- gel Tastatur, Maus und Joystick, Ausgabegeräte sind meist Bildschirm, Drucker oder portable Speichermedien wie CDs usw. Auf die Umgebung bezogen kann die Eingabe auch Sensoren (für Temperatur, Drehzahl, Druck...) bedeuten. Die Ausgabe wären dann z. B. Leistungsregler, Ventilsteuerungen usw. Im Bereich der Regel- und Messtechnik wird so etwas verwendet.

Im Softwarebereich kann man die Eingabe in Kommandozeile, Eingabe innerhalb des Programms aus Tastatur-, Maus- oder Joystick-Abfrage, lesenden Zugriff auf ein Spei- chermedium oder direkten lesenden Zugriff auf einen A/D-Wandler oder Ähnliches un- terscheiden. Die softwareseitige Ausgabe läuft generell nicht über die Kommandozeile, sondern ausschließlich im Programm als schreibender Zugriff auf Bildschirm, Drucker, Speicher oder einen A/D-Wandler oder Ähnliches.

66. Mehrkemprozessor

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) enthaltend wenigstens einen Mehrkemprozessor enthaltend.

Der Begriff Mehrkemprozessor (abgeleitet vom englischen Begriff auch Multicore- Prozessor oder Multikemprozessor) bezeichnet einen Mikroprozessor mit mehr als ei- nem vollständigen Hauptprozessorkem in einem einzigen Chip. Sämtliche Ressourcen mit Ausnahme des Busses und eventuell einiger Caches sind mehrfach vorhanden. Es handelt sich also um mehrere vollständige, weitgehend voneinander unabhängige CPU- Keme inklusive eigener Registersätze und arithmetisch-logischer Einheit (ALU). Als Doppelkemprozessor (auch Dual-Core-Prozessor) bezeichnet man einen Mehrkernpro- zessor mit zwei Hauptprozessoren. Mikroprozessoren mit einem Hauptprozessor be- zeichnet man zur Abgrenzung als Einzelkemprozessor (auch Single-Core-Prozessor). Mikroprozessoren mit drei Hauptprozessoren werden Triple-Core-Prozessoren oder Dreikemprozessoren genannt. Diese Terminologie lässt sich entsprechend fortsetzen. So spricht man bei vier Kernen von einem Vierkemprozessor (auch Quad-Core- Prozessor), wobei ein Vierkemprozessor aus zwei Doppelkemprozessoren oder vier ei- genständigen Kernen bestehen kann.

Multi-Threaded-CPUs sind mehrfädige (engl multithreading) Prozessorkeme mit meh- reren Programmzählem und Registersätzen, die sich gegenüber dem System aber als mehrere Kerne melden. Diese Technik kann je nach Aufwand im Prozessordesign un- terschiedlich effizient umgesetzt sein. Intel nennt sie in einigen Prozessorlinien Hyper- Threading, IBM SMT (symmetrisches Multi-Threading). Der IBM Power5-Prozessor ist z. B. ein Doppelkemprozessor mit zwei Threads pro Kern, der Sun UltraSPARC -TI - Prozessor ein Achtkem-Prozessor mit vier Threads pro Kern. Im Unterschied zu echten Mehrkem-Prozessoren teilen sich hier die„Kerne“ manche Ausführungseinheiten, wie zum Beispiel die Gleitkomma-Recheneinheit. Dann muss evtl ein„Kern“ warten, wenn der andere diese Einheit gerade belegt.

Bis zum Jahre 2005 dominierten die Einzelkemprozessoren den PC-Bereich. Zuvor wurde nur selten versucht, durch den Einsatz von zwei oder mehr Einzelprozessoren die Leistungsfähigkeit zu erhöhen. Stattdessen stand damals neben neuen Befehlssätzen wie MMX die Erhöhung der Taktfrequenz im Vordergrund. Doch ab Frequenzen von etwa 4 GHz war die entstehende Abwärme nicht mehr sinnvoll handhabbar. Eine Möglich- keit der Fortentwicklung war die Einführung von Mehrkemprozessoren. So wurde in der zweiten Hälfte des Jahres 2006 das Angebot in der oberen Hälfte des Leistungs- spektrums von PC-Prozessoren von der Doppelkemvariante beherrscht. Dies markierte die Abkehr von einem Prinzip, das seit der Geburtsstunde der Prozessoren Gültigkeit hatte. So werden nur noch in wenigen Fällen Einzelkeme verbaut, da die entsprechen- den Mehrkeme unwesentlich teurer sind.

Mehrkemprozessoren wurden entwickelt, weil eine Erhöhung der Rechenleistung durch höhere Taktfrequenzen große technische Probleme verursachte. Es ist auch kostengün- stiger, mehrere Kerne in einen Chip zu implementieren, als mehrere Prozessorsockel auf der Hauptplatine zu haben. Anders betrachtet kann mit derselben Anzahl an Chip- Sockeln und Chips theoretisch eine vervielfachte Rechenleistung erzielt werden (das n- fache bei n Kernen). In der Realität kann diese Steigerung aber kaum erreicht werden. Die tatsächliche Leistungssteigerung hängt vor allem davon ab, wie gut die Software parallelisiert ist. Dabei kann der Zugriff mehrerer aktiver Kerne auf den gemeinsamen Arbeitsspeicher zu Engpässen und Leistungsgrenzen fuhren, dagegen setzt man hoch- entwickelte Cache-Strategien ein.

Mehrkemprozessoren stellen neben einer Erhöhung der Taktffequenz und dem Pipeli- ning eine von vielen Möglichkeiten dar, die Leistung von Mikroprozessoren zu erhö- hen. Die rein theoretische Leistungssteigerung ist vergleichsweise effizient und beträgt maximal 100 % (gegenüber einem einzelnen Kern) pro zusätzlichem Kern. In der Pra- xis hängt die Leistungssteigerung stark von dem Parallelisierungsgrad des ausgeführten Programms und des verwendeten Betriebssystems ab. Unix, der SMP -Linux-Kemel und Microsoft Windows ab XP unterstützen Mehrkemprozessoren (Windows NT und 2000 erkennen einen Mehrkemprozessor als mehrere Einzelkemprozessoren; dadurch sind zwar alle Kerne nutzbar, spezielle Mehrkemprozessoroptimierungen konnten aber nicht greifen). Dabei verteilt das Betriebssystem Prozesse und Anwendungen auf die einzel- nen Prozessoren, die diese dann unabhängig parallel ausfuhren.

Wird hingegen nur eine Anwendung ausgeführt, so muss diese für die mehreren Prozes- soren parallelisiert werden. Das bedeutet, die Anwendung wird so modifiziert, dass sie komplett oder auch nur Fragmente davon gleichzeitig auf mehreren Prozessoren als Threads ausgeführt werden. So unterscheiden sich verschiedene Architekturen. Wäh- rend manche Architekturen leistungssteigemde Komponenten wie einen Shared Cache auf dem Chip unterbringen (so IBMs POWER4 und folgende, Sun UltraSPARC IV+ und TI), setzen andere Architekturen lediglich mehrere Einzelkeme mit eigenem Cache auf einen Chip. Prozessorbasiert lizenzierende Softwareuntemehmen haben verschiede- ne Konzepte entwickelt, um auf diese Entwicklungen zu reagieren.

So zählt Oracle bei Mehrkernprozessoren jeden Prozessorkem auf einem Chip mit 0,25 (Sun UltraSPARC TI), 0,5 (Intel und AMD CPUs) oder 0,75 (HP, IBM und Sun RISC CPUs). Microsoft hat angekündigt, nicht mehr die Kerne, sondern die Chips als Basis für die Lizenzierung heranzuziehen, womit auf einen Mehrkemprozessor nur noch eine Lizenz fällt. Bei Windows Server 2016 gilt noch die Core-basierte Lizenzierung (pro Kern).

Mehrkernprozessoren können je nach internem Aufbau in zwei Varianten unterteilt werden: symmetrische und asymmetrische Mehrkemprozessoren. In symmetrischen Mehrkemprozessoren sind die einzelnen Kerne gleich. Ein für diesen Prozessor über- setztes Programm kann auf jedem beliebigen seiner Kerne ausgeführt werden. Bei die- ser Art von Mehrkemprozessoren handelt es sich um SMP-Systeme. Da es sich bei Mehrkemprozessoren um eine Variante des SMP handelt, ist der Sinn und Zweck eines Mehrkemprozessors SMP platzsparend umzusetzen. Ein Beispiel für so ein 8-fach- SMP-System auf einem Chip ist der Sun UltraSPARC -TI -Prozessor.

Eine Abwandlung hiervon ist auch ARMs big.LITTLE-Konzept, in dem mehrere re- chenstarke, energiehungrige Kerne mit einem rechenschwachen, energiesparenden Kern kombiniert werden. Der schwache Kern ist jedoch Binärcode-kompatibel mit den star- ken und kann ebenfalls alle Programme ausführen. Beispiele für dieses Konzept sind nVidia Tegra 3 und Samsung Exynos 5 Octa.

Bei asymmetrischen Mehrkemprozessoren gibt es verschiedene Kerne, die unterschied- lich gesteuert werden und eine unterschiedliche Maschinensprache verstehen. Ein Pro- gramm kann nur auf einem seiner Übersetzung entsprechenden Kern ausgeführt wer- den. Bei dieser Art von Mehrkemprozessoren arbeiten einige der Kerne wie klassische Hauptprozessoren, andere wie asynchrone Koprozessoren. Ein Beispiel für solch ein System ist der Cell -Prozessor von IBM.

Vielkem-Prozessoren: Als„Manycore-Prozessoren“ werden oftmals Prozessoren mit deutlich mehr Rechenkemen als üblich bezeichnet; die Kerne („Cores“) werden in meh- rere„Tiles“ („Kacheln“) unterteilt, die jeweils definierte, meist redundante Aufgaben besitzen und eigene Recheneinheiten mit dem Zugriff auf gemeinsame Ressourcen (RAM, Cache, I/O-Einheiten) sind, beispielsweise die IBM / DARPA / UT-Austin TRIPS: zwei Kerne mit je 16 Executions-Tiles, vier Register- und Data-Tiles, fünf In- struktions-Tiles, ein Control- sowie mehreren Memory- und Network-Tiles, Intel Tera- scale: ein Kern mit 80 bis 100 Tiles, davon einige auf SoC-Aufgaben spezialisiert Intel Many Integrated Core Architecture (MIC) mit über 50 Tiles Mehrkem Mikrocontroller Aufgrund anderer Anforderungen eingebetteter Systeme als bei PC werden bei Mikro- controllem mehrere Kerne nur langsam üblich. Ein erster Mehrkem -Mikrocontrol ler wurde 2006 auf den Markt gebracht. Parallax Propeller: 8-Kem-Mikrocontroller (2006) symmetrisch, 8 x 20 MIPS, Infineon Aurix (2012)

67. Mikroprozessor

Es folgen weitere Ausfuhrungsformen der Erfindung: Verwendung des elektronischen Elementes (E) enthaltend wenigstens einen Mikroprozessor enthaltend.

Ein Mikroprozessor (von griechisch mikrόV mikros, deutsch , klein, eng‘) ist ein Prozes- sor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikro- chip (integrierter Schaltkreis, IC) vereinigt sind. Der erste Mikroprozessor wurde An- fang der 1970er Jahre von der Firma Texas Instruments auf der Basis der IC-Technik entwickelt. Im Zuge fortschreitender Miniaturisierung war es möglich, neben dem Mi- kroprozessor auch zusätzliche Peripherie auf dem Chip zu implementieren. Damit war der Mikrocontroller bzw. das System-on-a-Chip (SoC) geboren.

In den frühen 1960em wurden die aus Röhren bestehenden Prozessoren durch transisto- rierte Typen verdrängt. Anfangs wurden die Prozessoren diskret aus einzelnen Röhren aufgebaut. Ein solcher Prozessor hatte das Volumen eines Wandschrankes, die Lei- stungsaufnahme lag bei einigen tausend Watt, die Taktfrequenz bei 100 kHz. Der tech- nologische Sprung von der Röhren- zur Transistortechnik hatte einen geringeren Platz- bedarf, eine geringere Temperaturentwicklung, eine höhere Verarbeitungsgeschwindig- keit, eine niedrigere Ausfallquote sowie einen geringeren Stromverbrauch von nur eini- gen 100 Watt zur Folge. Die Taktfrequenz stieg auf etwa 1 MHz. Durch die spätere Verkleinerung der Transistoren auf nur einige Mikrometer war es möglich, immer mehr Transistorfunktionen auf integrierten Schaltungen (ICs) unterzubringen. Waren es zu- nächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich sogar Registerbänke und Re- chenwerke auf einem Chip. Diese zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip führte dann fast zwangsläufig zu dem, was heute als Mikroprozessor bekannt ist.

Patentiert wurde der Mikroprozessor von Mitarbeitern der Firma Texas Instruments (TI), die 1971 den TMS 1000 genannten Schaltkreis vorstellten. Er enthielt neben einem Hauptprozessor ein 1 KiB großes ROM, ein 64><4-Bit-RAM und weitere Funktionen wie Zähler und Timer sowie Schnittstellen für Eingabe und Ausgabe. Diese wurden damals üblicherweise in einzelnen Schaltkreisen umgesetzt und der TMS 1000 ent- spricht daher einem Mikrocontroller. Im selben Jahr wie TI präsentierte Intel mit dem 4004 den„Mikroprozessor“ (englisch microprocessor unit, MPU), der als erster Haupt- prozessor (CPU) auf einem Chip angesehen wird, da TI den TMS 1000 erst ab 1974 als eigenständiges Produkt vermarktete. Mit nur 4 Bit breiten Registern und einer Taktfre- quenz von bis zu 740 kHz war der 4004 nicht sehr leistungsfähig. Seine im Vergleich mit den klassischen CPUs äußerst kompakte Bauform verhalf dem Mikroprozessor aber schließlich trotzdem zum Durchbruch.

Ursprünglich war der 4004 eine Auftragsentwicklung für den japanischen Tischrech- nerhersteller Busicom. 1969 hatte Intels Ted Hoff, Leiter der Abteilung Application Re- search, die Idee, das Herz dieses Tischrechners in Form eines programmierbaren Bau- steins zu realisieren. 1970 entwickelte Federico Faggin, in der Abteilung für Untersu- chungen an der Metall-Isolator-Halbleiter-Struktur, eine Schaltkreisintegration auf Grundlage von Transistoren mit einer Gate-Elektrode aus Silizium für die Umsetzung des 4004 und führte das Projekt zu seinem erfolgreichen Debüt auf dem Markt im Jahr 1971. Dass daraus die erste universell einsetzbare Einchip-CPU der Welt resultierte, war eigentlich nicht beabsichtigt. Da Busicom damals in finanziellen Schwierigkeiten steckte, bot man Intel den Rückkauf des 4004-Designs an, woraufhin Intel mit der Vermarktung des 4004 begann. Der 4004 wurde zum ersten kommerziellen Mikropro- zessor der Welt. Eine weitere bemerkenswerte Entwicklung wurde erst 1998 nach der Freigabe militärischer Unterlagen bekannt. Demnach hat Garrett AiResearch (u. a. mit den Mitarbeitern Steve Geller und Ray Holt) bereits zwischen 1968 und 1970 einen Chipsatz (aus mehreren ICs bestehendes System, incl. CPU) für militärische Zwecke entwickelt. Der als MP944 bezeichnete Chipsatz war Bestandteil des Central Air Data Computer (CADC), dem Flugkontrollsystem der neuen F-14 Tomcat (US Navy).

Zunächst waren das noch recht einfache Schaltungen. Die Mikroelektronik brachte ne- ben der Miniaturisierung und der Kostenersparnis noch weitere Vorteile wie Geschwin- digkeit, geringen Stromverbrauch, Zuverlässigkeit und später auch höhere Komplexität. Das führte dazu, dass vergleichsweise billige Mikroprozessoren mit der Zeit die teuren Prozessoren der Minicomputer und teilweise sogar die Großrechner verdrängten. Gegen Ende des 20. Jahrhunderts hielt der Mikroprozessor Einzug in viele elektronische Gerä- te, vor allem als CPU von Personal-Computern (PCs). Auch als die Strukturgröße der Mikroprozessorchips auf einige Nanometer weiter verkleinert wurde (14 nm, Stand Ja- nuar 2015, Intel Broadwell-Architektur), blieb der Begriff Mikroprozessor bestehen.

Die Wortbreite war wegen der noch nicht so hohen Integrationsdichte zunächst auf 4 Bit beschränkt. In der Folge wurde die Wortbreite kontinuierlich gesteigert, meistens in Verdopplungsschritten. Da die Ressourcen zu Anfang noch so teuer waren, suchte man nach Wegen, sie optimal an die jeweiligen Erfordernisse anzupassen. Eine Episode auf dem Weg dazu waren Bit-Slice-Systeme, bei denen man mehrere Bit-Slice- Prozessoren geringer Bitbreite zu einem System der gewünschten, größeren Bitbreite zusammenschalten konnte.

Zur Realisierung eines kompletten Computers muss der Mikroprozessor noch um Spei- cher und Ein-/Ausgabe-Funktionen erweitert werden. Diese stehen in Form weiterer Chips zur Verfügung. Nur wenige Jahre nach der Einführung von Mikroprozessoren etablierte sich auch der Begriff des Mikrocontrollers, der diese Funktionen auf einem Chip vereint. Je nach Wortbreite, Befehlstypus (CISC / RISC) oder einfach Hersteller unterteilen sich die Prozessoren in verschiedene Prozessorarchitekturen. Beachtenswerte 8-Bit-Prozessoren: Der 4004 wurde 1972 durch den 8008 abgelöst, den ersten 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer des äußerst erfolgreichen Intel 8080 (1974) und weiterer 8-Bit-Prozessoren von Intel. Der konkur- rierende Motorola 6800 war ab August 1974 erhältlich, im selben Jahr wie der 8080. Die Architektur des 6800 wurde 1975 für den MOS Technology 6502 kopiert und ver- bessert, der in den 1980er Jahren in der Popularität mit dem Z80 wetteiferte. Das Ent- wicklerteam des 8080 gründete die Firma Zilog und brachte 1976 den Z80 heraus, eine stark verbesserte und Code-kompatible Weiterentwicklung. Dieser erlangte die größte Popularität aller 8-Bit-Prozessoren. Details siehe Zilog Z80.

Sowohl der Z80 als auch der 6502 wurden im Hinblick auf niedrige Gesamtkosten ent- wickelt. Das Gehäuse war klein, die Ansprüche an den Bus gering und es wurden Schaltungen eingebunden, die bisher in einem separaten Chip zur Verfügung gestellt werden mussten (der Z80 verfügte z. B. über einen eigenen Refresh-Generator für dy- namische RAM-Speicher DRAM). Diese Eigenschaften waren es schließlich, die dem Heimcomputermarkt zu Beginn der 1980er Jahre zum Durchbruch verhalfen und in Maschinen resultierten, die für 99 Dollar erhältlich waren.

Der SC/MP wurde von der Firma National Semiconductor Corporation aus Santa Clara Mitte der 1970er Jahre vertrieben. Verschiedene Einplatinencomputer wurden als Selbstbau- und Lehrcomputer auf Basis des SC/MP bis etwa 1980 realisiert. Western Design Center (WDC) stellte 1982 den CMOS 65C02 vor und lizenzierte das Design an verschiedene Firmen. Dieser Prozessor wurde das Herz des Apple IIc und Ile und wur- de in Herzschrittmachern und Defibrillatoren, Autos sowie in industriellen Geräten und auf dem Verbrauchermarkt eingesetzt. WDC bereitete so den Weg vor für das Lizenzie- ren von Mikroprozessor-Technologie; dieses Geschäftsmodell wurde später von ARM und anderen Herstellern in den 1990er Jahren übernommen.

Motorola übertrumpfte 1978 die gesamte 8-Bit-Welt mit der Vorstellung des Motorola 6809, eine der leistungsstärksten und saubersten 8-Bit-Architekturen und auch eine der komplexesten Mikroprozessor-Logiken, die je produziert wurden. Mikroprogramm ie- rung ersetzte zu dieser Zeit die bisher festverdrahteten Logiken - gerade weil die An- forderungen der Designs für eine feste Verdrahtung zu komplex wurden. Ein weiterer 8-Bit-Mikroprozessor war der Signetics 2650, der aufgrund seiner innovativen und lei- stungsfähigen Befehlssatz-Architektur kurzzeitig im Zentrum des allgemeinen Interes- ses stand.

Ein für die Raumfahrt wegweisender Mikroprozessor war der RCA1802 (alias CDP1802, RCA COSMAC; vorgestellt 1976), der in den Voyager-, Viking- und Gali- leo-Raumsonden eingesetzt wurde. Der CDP1802 wurde verwendet, weil er mit sehr wenig Energie betrieben werden konnte und seine Bauart (Silicon-on-Sapphire) einen wesentlich höheren Schutz gegenüber kosmischer Strahlung und elektrostatischen Ent- ladungen bot als jeder andere Prozessor zu dieser Zeit. Der CP 1802 wurde als erster strahlungsgehärteter (radiation-hardened) Prozessor bezeichnet. Der erste Mehrfach-Chip- 16-Bit-Mikroprozessor war der IMP- 16 von National Se i- conductor, vorgestellt 1973. Eine 8-Bit-Version folgte ein Jahr später als IMP-8. 1975 stellte National Semiconductor den ersten Ein-Chip-16-Bit-Mikroprozessor PACE vor, dem später eine NMOS-Version folgte (INS8900). Andere Mehrfach-Chip- 16-Bit-Mikroprozessoren waren der TMS 9900 von TI, der auch mit der hauseigenen TI-990-Minicomputermodellreihe kompatibel war. Der Chip besaß ein großes 64-Pin-DIP-Gehäuse, während die meisten 8-Bit-Prozessoren in das weiter verbreitete, kleinere und billigere 40-Pin-DIP-Gehäuse aus Kunststoff eingesetzt wurden. Ein Nachfolger wurde aus dem 9900 entwickelt, der TMS 9980, der ebenfalls ein billigeres Gehäuse besaß. Er sollte ein Konkurrent zum Intel 8080 werden. Der TMS 9980 konnte 8 Datenbits zur gleichen Zeit kopieren, aber nur 16 KiB adressieren. Ein dritter Chip, der TMS 9995, wurde neu entwickelt. Diese Prozessorfamilie wurde später mit dem 99105 und 99110 erweitert. WDC machte seinen 65C02 16-Bit-tauglich und stellte diesen Prozessor 1984 als CMOS 65816 vor. Der 65816 stellte den Kern des Apple Ilgs und später des Super Nin- tendo dar, was ihn zu einem der beliebtesten 16-Bit-Designs machte.

Intel verfolgte die Strategie, keine Minicomputer zu emulieren, und„vergrößerte“ statt- dessen sein 8080-Design auf 16 Bit. Daraus entstand der Intel 8086, das erste Mitglied der x86-Familie, die heute in den meisten PCs zu finden ist. Der 8086 und sein„kleiner Bruder“, der 8088 boten die Möglichkeit, Software von der 8080-Linie zu portieren, womit Intel gute Geschäfte machte. Nachfolger des 8086 wurde der 80186, der 80286 und 1985 der 32-Bit-Prozessor 80386, die alle rückwärtskompatibel waren und so die Marktvorherrschaft von Intel entscheidend stärkten.

Der erste 32-Bit-Mikroprozessor in einem eigenen Gehäuse war der BELLMAC-32A von AT&T Bell Labs, von dem erste Stücke 1980 erhältlich waren, und der 1982 in Masse produziert wurde. Nach der Zerschlagung von AT&T 1984 wurde er in WE 32000 umbenannt (WE für Western Electric) und hatte zwei Nachfolger: Den WE 32100 und WE 32200. Diese Mikroprozessoren wurden in den folgenden Minicompu- tern von AT&T eingesetzt: 3B2, 3B5, 3B15,„Companion“ und„Alexander“.

Einer der bemerkenswertesten 32-Bit-Mikroprozessoren ist der MC68000 von Motoro- la, der 1979 vorgestellt wurde. Er wurde häufig auch als 68K bezeichnet und verfügte über 32-Bit-Register, verwendete aber 16 Bit breite interne Busleitungen und einen ebenso breiten externen Datenbus, um die Anzahl benötigter Pins zu verringern. Mo- torola bezeichnete diesen Prozessor im Allgemeinen als 16-Bit-Prozessor, obwohl er in- tern über eine 32-Bit-Architektur verfügte. Die Kombination aus einem schnellen und großen Speicheradressraum (16 Megabyte) und geringen Kosten machten ihn zum be- liebtesten Prozessor seiner Klasse. Der Apple Lisa und die Macintosh-Reihe verwende- ten den 68 K; Mitte der 1980er Jahre wurde dieser Prozessor auch im Atari ST und Commodore Amiga eingesetzt. Intels erster 32-Bit-Mikroprozessor war der 1981 vorgestellte iAPX 432. Obwohl er über eine fortgeschrittene, objektorientierte Architektur verfugte, war ihm kein kom- merzieller Erfolg beschieden - nicht zuletzt weil er in der Leistung gegenüber konkur- rierenden Architekturen schlechter abschnitt.

Motorolas Erfolg mit dem 68K führte zur Vorstellung des MC68010, der die Technik der virtuellen Speicheradressierung unterstützte. Der MC68020 schließlich verfügte über 32 Bit breite interne und externe Busse. Dieser Prozessor wurde im Unix- Supermicrocom puter äußerst beliebt, und viele kleinere Firmen stellten Desktop- Systeme mit diesem Prozessor her. Der MC68030 integrierte die MMU in den Chip. Die meisten Computer, die nicht auf DOS liefen, setzten nun einen Chip der 68K- Familie ein. Dieser anhaltende Erfolg führte zum MC68040, der auch die FPU in den Chip integrierte und so die Geschwindigkeit arithmetischer Operationen erhöhte. Ein geplanter MC68050 erreichte nicht die erwünschten Verbesserungen und wurde nicht produziert, der MC68060 wurde auf ein Marktsegment geworfen, das bereits mit viel schnelleren RISC-Designs gesättigt war.

Der 68020 und seine Nachfolger wurden häufig in eingebetteten Systemen eingesetzt. Während dieser Zeit (Anfang bis Mitte 1980) stellte National Semiconductor ähnlich wie Motorola einen 32-Bit-Prozessor mit einem 16-Bit-Pinout her, den NS 16032 (spä- ter umbenannt zu NS 32016). Die Version mit einem ebenfalls 32 Bit breiten Bus war der NS 32032. Sequent stellte basierend auf diesem Mikroprozessor Mitte der 1980er Jahre den ersten SMP -Computer vor.

Andere Systeme setzten den Zilog Z80000 ein, der aber zu spät im Markt ankam und bald wieder verschwand. Während 64-Bit-Prozessoren in verschiedenen Märkten schon seit den frühen 1990er Jahren im Einsatz waren, wurden sie erst nach 2000 auch auf dem PC-Markt eingesetzt. Im Juli 2003 stellte Apple auf der Entwicklerkonferenz (WWDC) den Power Mac G5 vor, Apples ersten 64-Bit-Desktop-Computer. Vorher hatte es bereits von Sun und anderen Herstellern 64-Bit-Rechner gegeben, die allerdings üblicherweise als Workstations und nicht als Desktop-Rechner bezeichnet werden, auch wenn kein technisches Merkmal diese Unterscheidung rechtfertigt.

Etwa gleichzeitig, mit AMDs Einführung der ersten 64-Bit-Architektur AMD64 (zu IA- 32 rückwärtskompatibel) im September 2003, begann die Ära der 64-Bit-Architekturen auch bei x86-Rechnern. AMD wurde bald gefolgt von Intel, die schon zuvor IA-64- CPUs herstellten (Intel Itanium), die aufgrund der fehlenden Abwärtskompatibilität am Consumer-Markt aber scheiterten. Nun wendete sich Intel der AMD64-Architektur zu und produziert seit dem Intel Pentium 4 Kern Prescott 2M (Release: Februar 2005) ei- gene zu AMD64 kompatible x86/Intel64-Prozessoren. Beide x86-Prozessoren können die bisherige 32-Bit-Software wie auch die neue 64-Bit-Software ausführen. Mit 64- Bit-Windows XP und -Linux bewegt sich die Software nun auf die neue Architektur hin und nutzt das volle Potenzial dieser Prozessoren. Seit der Veröffentlichung von Win- dows 7 werden die meisten OEM-Computer mit einer 64-Bit-Version veröffentlicht, ge- rade auch da um 2010 die magische 4-GB-RAM-Grenze der 32-Bit-Systeme bei han- delsüblichen Computern erreicht war. Speziell bei IA-32 ist der Wechsel zu 64-Bit mehr als nur die Erhöhung der Registerbreite, da auch die Anzahl der Register erhöht wurde.

Bei den PowerPC-Architekturen wurde der Wechsel auf 64-Bit schon in den frühen 1990er Jahren vorgenommen (tatsächlich ist der PPC -Prozessor von vornherein als 64- Bit konzipiert, mit einer 32-Bit-Tei lmenge der Befehle). Die Registergrößen und inter- nen Busse werden vergrößert, die arithmetischen und vektoriellen Recheneinheiten ar- beiteten bereits vor dem Wechsel seit mehreren Jahren mit 64 oder mehr Bits (das ist auch bei IA-32 der Fall). Es werden aber keine neuen Register eingefügt, dadurch ist die gewonnene Geschwindigkeit von 64 gegenüber 32-Bit geringer als bei IA-32.

Mitte der 1980er bis in die frühen 1990er Jahre erschienen viele RISC- Mikroprozessoren (englisch Reduced Instruction Set Computing), die anfänglich in spezialisierten Computern und UNIX-Workstations eingesetzt wurden, seither aber uni- verseil in den verschiedensten Aufgabengebieten genutzt werden; Intel -Standard- Desktop-Computer sind heute RISC-CISC-Mischformen.

Die erste kommerzielle Architektur stammte von MIPS Technologies, der R2000 (der RI 000 wurde nicht verkauft). Der R3000 machte die Architektur erst richtig praktisch, der R4000 schließlich stellte die erste 64-Bit-Architektur der Welt dar. Konkurrierende Projekte brachten die IBM-Power- und Sun-SPARC-Systeme hervor. Bald hatte jeder größere Hersteller ein RISC-Design im Angebot, z. B. den AT&T CRISP, AMD Am29000, Intel i860 und Intel i960, Motorola 88000, DEC Alpha und den HP PA- RISC.

Der Wettbewerb ließ bald die meisten dieser Architekturen verschwinden, wobei IBMs POWER und der davon abgeleitete PowerPC (als die Desktop-RISC-Architektur) und Sun SPARC (nur in Suns eigenen Systemen) blieben. MIPS bietet weiterhin SGI- Systeme an, die Architektur wird aber meist als eingebettetes Design verwendet, z. B. in den Routern von Cisco.

Andere Firmen konzentrieren sich auf Nischenmärkte, allen voran ARM Limited, wel- che 1989 aus Acom ausgegliedert wurde. Acom war ein Hersteller von RISC- Computern, der mit den auf der ARM-Architektur basierenden Modellserien Acorn Ar- chimedes und Acom Risc PC als einer der ersten auch auf den Heimcomputermarkt ab- zielte. ARM konzentriert sich jetzt aber auf Prozessoren (siehe auch ARM-Architektur) für eingebettete Systeme.

Ein Mikroprozessor ist ein Prozessor, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind. Die Mikroprozessoren werden aufgrund ihrer unterschiedli- chen Anwendungsbereiche an den jeweiligen Einsatzbereich angepasst. Beispielsweise müssen Spezialversionen für Luft- und Raumfahrt besonders hohen Temperaturen und Strahlungsexposition im laufenden Betrieb fehlerfrei standhalten, während Mobilpro- zessoren eine hohe IPC-Rate, geringe Leckströme und einen niedrigen Energiever- brauch aufweisen müssen. Diesen Bedürfnissen wird auf verschiedene Arten und Wei- sen Rechnung getragen: So wird bereits mit der Auswahl des Befehlssatzes (CISC oder RISC) eine fundamentale Entwurfsentscheidung getroffen, deren Implikationen in den jeweiligen Spezialartikeln näher erläutert werden. Anschließend wird ein möglichst ef- fizienter Mikrocode entwickelt, der optimal an Randbedingungen wie Cachegrößen, Speicherbandbreite und -latenzen sowie die internen Funktionseinheiten angepasst wird.

Der in einer Hardwarebeschreibungssprache vorliegende logische Entwurf des Mikro- prozessors wird sodann an einen Hochleistungscomputer übergeben, der die Leiterbah- nen "routet", d. h., eine optimale Anordnung mit möglichst wenig Transistoren sowie minimaler Verlustleistung zu ermitteln sucht (sogenannte Technology Binding oder Technology Mapping). Da diese Routingprobleme NP-vollständig sind, werden meist nur Näherungslösungen gefunden, die sich im Detail noch erheblich verbessern lassen. Aus diesen Bahnberechnungen werden Masken erstellt, die mittels Fotolithografie zur Belichtung von Wafern eingesetzt werden, die anschließend geätzt werden. Die Ferti- gung eines heutigen Mikroprozessors umfasst weit über 100 Einzelschritte, in deren Verlauf bereits ein einziger Fehler den gesamten Prozessor unbrauchbar machen kann.

In der Endkontrolle werden die Prozessoren schließlich hinsichtlich ihrer Taktfestigkeit klassifiziert, wobei anhand eines für jeden Prozessortyp individuell entwickelten Test- programms physikalische Eigenschaften wie Signalpegel bei verschiedenen Takten überprüft werden. Hierbei wird besonders auf laufzeitkritische Signalwege auf dem CPU-Die geachtet, um Speed Paths (Fehler durch Signalverzögerungen) zu verhindern. Allgemein lässt sich feststellen, dass der Validierungsaufwand moderner Prozessoren gewaltige Ausmaße angenommen hat, und trotz aller Anstrengungen nicht alle Fehlersi- tuationen vor der Auslieferung überprüft werden können.

Der letzte in allen Funktionen (und Fehlem!) vollständig verifizierte x86-Prozessor war der 80286. Daher liefern alle Hersteller sogenannte Errata-Listen, in denen entdeckte Fehler verzeichnet werden. So musste beispielsweise Intel den berühmt-berüchtigten FDIV-Bug in frühen Pentium-CPUs eingestehen, der auf mehrere fehlende Einträge in einer internen Lookup-Tabelle der FPU zurückzuführen ist.

Im Laufe der Zeit vergrößerte sich aufgrund der immer besser werdenden Technik die Anzahl der vom Prozessor unterstützten Befehle. Heute finden sich überwiegend 32- und 64-Bit-Prozessoren, wobei die gängigsten Betriebssysteme für den Anwender ma- ximal 64, meist aber nur 32 Bit unterstützen. Daran lässt sich schon erkennen, dass die Software im Falle der Prozessoren der Hardware hinterherhinkt. Die in den 1980er Jah- ren entwickelten 386er waren die ersten 32-Bit-Prozessoren der Intel 80x86-Familie.

Im Jahre 2006 wurde von der Firma ARM der erste kommerzielle ungetaktete, asyn- chrone Prozessor vorgestellt, der ARM996HS. Da er ohne Taktung auskommt, weist ein asynchroner Prozessor eine im Hochfrequenzbereich geringere und wesentlich we- niger prägnante Abstrahlung auf und verbraucht während Prozesspausen keinen nen- nenswerten Strom.

Im Zuge immer höherer Integrationsdichten der Halbleiterprozesse haben die Entwick- ler von CPUs weitere Funktionen in die Hardware integriert. Zu den Einheiten, die frü- her als separate Chips angeschlossen werden mussten und im Laufe der Zeit in die CPU selbst integriert werden konnten, zählen: die Memory Management Unit zur Speicher- verwaltung; der numerische Coprozessor für schnellere Rechenoperationen mit Gleit- kommazahlen; Vektorarithmetikeinheiten, insbesondere für schnelle Grafikbearbeitung -bei Intel unter den Namen MMX, SSE und Nachfolger, beim PowerPC als AltiVec bezeichnet; Cache-Speicher, zuerst nur der Level 1, heute zusätzlich Level 2 und auch schon Level 3; manchmal der Chipsatz (oder Teile davon) zur Ansteuerung des Arbeits- speichers; manchmal ein Grafikchip zur Anzeigesteuerung; bis zu 100 Prozessorkerne auf einem Chip (Mehrkemprozessor, Terascale-Prozessor).

Mikrocontroller hingegen haben häufig nur wenige Register und einen eingeschränkten Befehlssatz, bei dem Addition und Subtraktion oft schon die komplexesten Operationen sind. Für einfache Anwendungen, wie die Steuerung einer einfachen Maschine, reicht diese Funktionalität jedoch aus, zumal sich höhere Funktionen durch wenige Basisope- rationen implementieren lassen, beispielsweise Multiplikation durch Verschieben und Addieren (siehe Russische Bauemmultiplikation). Dafür integrieren Mikrocontroller Peripheriefunktionen und oft auch Arbeitsspeicher mit auf dem Chip.

Im Zusammenhang mit den steigenden Stromkosten wird der Energieverbrauch von Mikroprozessoren zu einem immer wichtigeren Leistungsmerkmal. Dies gilt vor allem für Großrechnern, Rechenzentren und Serverfarmen sowie bei mobilen Geräten wie Smartphones oder Tabletcomputem. Auch außerhalb von Rechenzentren bieten strom- sparende Prozessoren Vorteile. Da die Kühler weniger zu tun haben, werden die Rech- ner auch leiser. Mitunter können die Computer sogar passiv gekühlt werden. Und im Sommer stellt die von einem PC produzierte Wärme in einem Raum ohne Klimaanlage eine Beeinträchtigung für die dort anwesenden Personen dar.

Früher wurden neue Fertigungstechniken (v. a. Strukturverkleinerungen) vor allem zur Steigerung der Frequenz verwendet; mittlerweile werden sie teilweise eingesetzt, um den bisher stetig steigenden Stromverbrauch wieder zu reduzieren: Statt immer höherer Taktraten für einen einzigen Rechenkem werden nun bei niedrigerer Frequenz mehrere Rechenkerne in einem Prozessor untergebracht. Optimierte Fertigung reduziert Leck- ströme.

Aktuelle Mehrkemprozessoren können in ihrem Leistungsbedarf je nach Modell zwi- schen 45 und 140 Watt liegen (TDP). Es werden auch zunehmend Energiesparfähigkei- ten eingebaut, um nicht benötigte Komponenten zeitweise langsamer takten zu können oder ganz abzuschalten. Bzgl. des Gesamt-Stromverbrauchs wird i. A. das Race-to-Idle- Prinzip angewandt. Moderne Prozessoren kennen mitunter sogar einen„Turbo-Modus“, um vorhandene Kühlungsreserven voll auszuschöpfen.

Der Stromverbrauch von Prozessoren ist mit weiteren Folgekosten belastet: Der ver- brauchte Strom wird in Wärme umgewandelt, diese muss durch den Lüfter aus dem Rechner abtransportiert werden. Höherer Verbrauch erfordert stärkere Lüfter, die eben- falls mehr Strom verbrauchen. Ist der Aufstellungsort des Rechners selbst ein klimati- sierter Raum, wird auch die Klimaanlage dadurch zusätzlich belastet. Dabei kann man abhängig von der Leistungszahl des Kühlgerätes mit ca. 25—40 % Zusatzverbrauch rechnen, d. h. ein 300-W-PC belastet die Klimaanlage mit 75—120 W höherem Lei- stungsbedarf. Auch das Netzteil des Rechners muss eventuell größer ausfallen.

Ist der Rechner an eine USV angeschlossen, so hat diese abhängig von ihrem Wir- kungsgrad ebenfalls einen höheren Eigenverbrauch. Bei vielen Rechnern an einem Ort können auch zusätzliche Investitionskosten für größere Klimaanlagen und größere USV-Anlagen anfallen. Server laufen meist 24 Stunden am Tag, sieben Tage die Wo- che, also insgesamt 8760 Stunden im Jahr. Um die Energiebilanz von EDV-Systemen zu verbessern, werden unterschiedliche Lösungswege verfolgt. Es wird angestrebt, die Effektivität der Kühlung zu erhöhen (Beispiel: Air Guide), als auch die abgegebene Wärme zu nutzen (Beispiel: Aquasar).

Moderne CPUs werden - je nach Auslastung - während des Betriebs sehr heiß. Je nach Modell und Hersteller werden pro Quadratzentimeter Verlustleistungen von bis zu 125 Watt erreicht (aktuelle Quadcores). Zum Vergleich: Die 18-cm-Kochplatte eines üblichen Elektroherds erreicht gerade einmal 7-10 W/cm 2 . CPUs dürfen aber, wie alle Halbleiter, bestimmte Betriebstemperaturen nicht überschreiten, da das zunächst zu Fehlfunktionen („Abstürze“), in extremen Fällen zur Zerstörung des Chips führt (wird bei neueren Prozessoren durch Überhitzungsschutz verhindert). Übliche Grenztempera- turen für den Betrieb liegen zwischen 60 und 90 °C. Temperaturen über etwa 125 bis 135 °C fuhren zu irreversiblen Schäden. Prozessoren müssen also zwingend gekühlt werden, wobei ein gewisser Sicherheitsabstand zu den vom Hersteller angegebenen Höchstwerten erstrebenswert ist.

Der gängigste Weg, die Kühlung der CPU sicherzustellen, ist die Montage eines Kühl- körpers mit Lüfter. Der verrippte Kühlkörper aus Aluminium oder Kupfer (teilweise kombiniert) vergrößert die Fläche, die zur Wärmeabgabe beiträgt, um ein Vielfaches, der Lüfter soll für einen zügigen Abtransport der Verlustwärme sorgen. Die Bemessung der Kühlung erfolgt häufig nicht nach der theoretisch maximal möglichen Verlustlei- stung, sondern aus Kostengründen nach der Thermal Design Power (TDP), die deutlich niedriger liegt.

Zwischen Prozessor und Kühlkörper wird Wärmeleitpaste oder ein Wärmeleitpad ein- gesetzt. Durch Unebenheiten und Rauheit verbleiben zwischen Chip und Kühlkörper Lufteinschlüsse, die den Wärmetransport behindern, die Pasten oder Pads verdrängen diese Luft und verbessern den Wärmeübergang erheblich. Als Lüfter für den CPU- Kühler werden fast ausschließlich Axiallüfter mit Durchmessern zwischen 40 und 140 mm eingesetzt. Insbesondere kleine Exemplare erreichen Drehzahlen von bis zu 6500/min und können dabei eine erhebliche Geräuschkulisse erzeugen. Die Lüfter wer- den heute an die Hauptplatine angeschlossen, so dass die Drehzahl überwacht und bei vielen modernen Hauptplatinen auch elektronisch geregelt werden kann.

Als Alternativen zur Luftkühlung gibt es noch die Wasserkühlung für leistungsstarke oder relativ leise Rechner, bei der Wasser inner- oder außerhalb des Rechners in einem Radiator (teilweise auch ohne Lüfter) gekühlt wird und dann mit Hilfe einer Pumpe durch das Gehäuse und an zu kühlenden Objekte wie CPU, manchmal auch zusätzlich an RAM, Chipsatz, Grafikprozessor etc. geleitet wird. Insgesamt ist eine Wasserküh- lung aufwändiger, teurer und zumeist wartungsintensiver als eine Luftkühlung. Als er- ster Computerhersteller verbaute Apple in ihren Power Mac G5 Topmodellen eine stan- dardisierte Wasserkühlung. Zuvor wurden Wasserkühlungen meist nur von Bastlern mit übertakteten Prozessoren in Eigeneinbau verwendet.

Im Industriebereich wird auch Flüssigstickstoffkühlung eingesetzt, die allerdings ex- trem aufwändig ist. Um flüssig zu sein, muss der Stickstoff auf -196 °C gekühlt wer- den, was große Kühlaggregate erfordert. Wegen der sehr niedrigen Temperatur im Rechner müssen Hauptplatine und andere Objekte wieder von der Rückseite erwärmt werden, damit sie ordnungsgemäß funktionieren. Diese Technik ist sehr schwierig reali- sierbar, die Betriebs- und lnstandhaltungskosten sind meist höher, als mehrere einzelne Prozessoren parallel zu betreiben. Allgemein gilt es als nicht sinnvoll, eine CPU auf weniger als +10 °C herunterzukühlen, da sonst die Kosten zu hoch werden. Auch haben alle elektronischen Bauteile eine Mindestbetriebstemperatur und an zu stark gekühlten Bauteilen kann sich Kondenswasser niedersch lagen, was unbedingt vermieden werden muss.

Flüssigstickstoffkühlung ist jedoch als kurzfristige Lösung zur Aufstellung von neuen Taktfrequenz- und Benchmarkrekorden sinnvoll. Dafür sind auch keine Kühlaggregate notwendig, der Stickstoff wird einfach aus der Flasche nachgefüllt und verdampft. In diesem Fall entfällt auch die Erwärmung der Rückseite, weil die Komponenten während der kurzen für einen Rekordversuch nötigen Zeit meistens auch ohne derartige Maß- nahmen funktionsfähig bleiben.

Einzelne Hersteller verwenden auch Kompressionskältemaschinen. Diese funktionieren ähnlich wie ein Kühlschrank: Ein Kühlmittel wird stark unter Druck gesetzt und die da- bei entstehende Wärme abgeführt, beim Ausgleich auf Normaldruck kühlt es weiter ab und kühlt so auch seine Umgebung, sprich Prozessor oder andere Geräte. Diese Lösung wird vor allem bei übertakteten Workstations verwendet, hat aber den Nachteil, auch die Geräuschkulisse eines Kühlschranks zu erzeugen.

Eine weitere Möglichkeit zur Zwangskühlung der CPU bietet das Peltier-Element. Auch hier ist die Gefahr der Bildung von Kondenswasser gegeben. Zudem erzeugt ein Peltier-Element wegen des geringen Wirkungsgrades mindestens noch einmal die glei- che Verlustleistung wie der Prozessor selbst, die zusätzlich abgeführt werden muss. Die „warme“ Seite muss also auch hier per Wasserkühlung oder Kühlkörper mit Lüfter ge- kühlt werden.

Auch durch den Einsatz einer Ölkühlung kann Wärme abgeführt werden, im PC- Bereich wird dies allerdings bisher nur im experimentellen Umfeld durchgeführt. Für eine Ölkühlung werden meistens keine speziellen Lüfter oder Kühleinrichten an der CPU installiert, sondern einfach das gesamte Motherboard mit installiertem Lüfter in eine Wanne voll Öl getaucht. Hierzu bietet sich nicht leitfähiges, reinstes Mineralöl an. Die ersten von einem Hersteller produzierten CPUs werden, ähnlich einem Prototyp, als „Engineering Sample“ oder„Confidential CPU“ an ausgewählte Firmen oder Tester verteilt. Es handelt sich grundsätzlich um voll funktionsfähige Prozessoren, die dem späteren Endprodukt meist in nichts nachstehen. Solche CPUs sind üblicherweise im Handel nicht erhältlich. Erkennbar sind solche CPU-Versionen am Kürzel„ES“ oder dem Aufdruck„Confidential“. Zudem wurden, zumindest in der Vergangenheit von In- tel, Prozessoren und ganze Chip-Sätze in„University-Kits“ abgegeben. Die dort enthal- tenen Chips hatten den Aufdruck„CS“ und waren in der Regel am Keramikgehäuse be- schädigt, vielfach war der Aufdruck schlecht (verrutscht, verschmiert, dubliert). Zu be- achten ist, dass die Buchstabenkombination ES oder CS nicht immer Engineering oder Customer Sample bedeuten muss, oftmals ist es auch der Batch-Code oder eine Revisi- onsbezeichnung.

68. Prozessor

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens einen Prozessor enthaltend.

Ein Prozessor ist ein (meist sehr stark verkleinertes und meist frei) programmierbares Rechenwerk, also eine Maschine oder eine elektronische Schaltung, die gemäß überge- benen Befehlen andere Maschinen oder elektrische Schaltungen steuert und dabei einen Algorithmus (Prozess) vorantreibt, was meist Datenverarbeitung beinhaltet. Der weitere Artikel beschreibt ausschließlich diese Bedeutung, am Beispiel des Prozessors eines Computers. Am bekanntesten sind Prozessoren als Hauptprozessor, Zentrale Rechen- einheit oder (allgemeiner) Zentrale Verarbeitungseinheit (kurz ZVE, englisch central Processing unit, kurz CPU) für Computer oder computerähnliche Geräte, in denen sie Befehle ausführen; am verbreitetsten sind sie als Mikrocontroller in eingebetteten Sy- stemen (etwa in Waschmaschinen, Ticketautomaten, DVD-Spielern, Smartphones usw.).

Im früheren Sprachgebrauch wurde unter dem Begriff„Prozessor“ sowohl das Bauteil verstanden (ein Halbleiter-Chip in einem Plastikgehäuse, der mit seinen Beinchen in ei- nen Sockel eingesteckt wird), als auch eine datenverarbeitende Logik-Einheit. Heutzu- tage besitzen jedoch viele Prozessor -Chips mehrere sogenannte Prozessorkerne, wobei jeder Kern für sich eine (weitgehend) eigenständige Logik-Einheit darstellt. Unter dem Begriff Prozessor wird heute im Allgemeinen vorwiegend das Bauteil verstanden; ist die datenverarbeitende Logik-Einheit gemeint, wird meist vom Prozessorkem gespro- chen.

Der Begriff CPU wird umgangssprachlich auch in anderem Kontext für Zentraleinheit (ZE) benutzt, hierbei kann dies für einen zentralen Hauptrechner (ein kompletter Com- puter) stehen, an dem einzelne Terminal-Arbeitsstationen angeschlossen sind. Teilweise wird der Begriff auch als Metapher benutzt, bei Computerspielen zum Beispiel als„Ein Spiel gegen die CPU“.

Hauptbestandteile eines Prozessor(kem)s sind das Rechenwerk (insbesondere die arithmetisch-logische Einheit, ALU) sowie das Steuerwerk (inkl. Adresswerk). Darüber hinaus enthalten sie meist mehrere Register und einen Speichermanager (engl. Memory Management Unit, MMU), der den Arbeitsspeicher verwaltet. Zu den zentralen Aufga- ben des Prozessors gehören die Abarbeitung des Maschinenprogramms: arithmetische und logische Operationen zur Verarbeitung von Daten aus internen oder externen Quel- len, beispielsweise dem Arbeitsspeicher.

Neben diesen Hauptbestandteilen, die die Grundfünktionen bereitstellen, kann es weite- re Recheneinheiten geben, die spezialisierte Funktionen zur Verfügung stellen und den eigentlichen Prozessor entlasten sollen - diese Einheiten werden meist als Koprozessor bezeichnet. Beispiele hierfür sind der bis in die 1990er Jahre separate mathematische Koprozessor für Gleitkommaoperationen (die Gleitkommaeinheit) sowie Grafik- und Soundprozessoren. In diesem Zusammenhang wird der zentrale Prozessor mit seinen im vorhergehenden Absatz beschriebenen Grundfunktionen auch als Hauptprozessor (oder kurz, mit der englischen Abkürzung, als CPU) bezeichnet. Weitere Synonyme sind Zen- trale Verarbeitungseinheit (kurz ZVE oder auch Zentraleinheit). Die moderne Form des Prozessors ist der Mikroprozessor, der alle Bausteine des Prozessors in einem integrier- ten Schaltkreis (Mikrochip) vereinigt. Moderne Prozessoren für Desktop-Computer und Notebooks aber auch für Smartphones und Tabletcomputer sind oft Mehrkernprozesso- ren mit zwei, vier oder mehr Prozessorkemen. Die Prozessorkeme sind hierbei oft ei- genständige„Prozessoren“ mit Steuer-/Leitwerk und Rechenwerk auf einem Chip. Bei- spiele hierfür sind der Intel Core 2, der AMD Athlon X2 oder der Nvidia Tegra 3. Eine klare Abgrenzung der Begriffe Prozessor, Hauptprozessor, CPU und Prozessorkern ist in der Literatur nicht zu finden, siehe Abschnitt Hauptprozessor, CPU und Prozessor- kem.

Prozessoren werden oft im Bereich der eingebetteten Systeme (englisch embedded Sy- stems) eingesetzt: zur Steuerung von Haushaltsgeräten, Industrieanlagen, Unterhal- tungselektronik usw. In Großrechnern (englisch mainframes) wurden früher meist her- stellereigene Prozessorarchitekturen verwendet, wie etwa bei IBM (PowerPC, Cell- Prozessor) oder SUN (SPARC -Prozessor); heute werden überwiegend angepasste Ver- sionen der verbreiteten PC-Prozessormodelle verwendet.

Prozessoren für eingebettete Systeme machen etwa 95 Prozent des Prozessormarkts aus, wobei davon 90 Prozent sogenannte Mikrocontroller sind, die neben dem eigentlichen Prozessor weitere Funktionen (zum Beispiel spezielle Hardwareschnittstellen oder di- rekt integrierte Sensoren) enthalten. Nur etwa 5 Prozent werden in PCs, Workstations oder Servern eingesetzt.

In den 1930er Jahren bestand das Rechenwerk eines Computers zunächst aus Relais und mechanischen Bauelementen, z. B. bei der Zuse Z3. Diese ersten Computer waren also elektromechanische Rechner, die langsam und äußerst störanfällig waren. Noch in den 1940em begann man damit, Computer mit Hilfe von Elektronenröhren zu bauen, wie den ENIAC. Damit wurden die Rechner schneller und weniger störanfällig. Waren die- se Rechner anfangs teure Einzelprojekte, so reifte die Technik im Laufe der 1950er Jah- re immer mehr aus. Röhrencomputer wurden nach und nach zu Artikeln der Serienferti- gung, die für Universitäten, Forschungseinrichtungen und Firmen durchaus erschwing- lich waren. Um dieses Ziel zu erreichen, war es notwendig, die Anzahl der benötigten Röhren auf ein Mindestmaß zu reduzieren. Aus diesem Grund setzte man Röhren nur dort ein, wo sie unabdingbar waren. So begann man damit, Hauptspeicher und CPU- Register auf einer Magnettrommel unterzubringen, Rechenoperationen seriell auszufüh- ren und die Ablaufsteuerung mit Hilfe einer Diodenmatrix zu realisieren. Ein typischer Vertreter dieser Rechnergeneration war der LGP-30.

Erste Erwähnungen des Begriffes CPU gehen in die Anfänge der 1950er Jahre zurück. So wurde in einer Broschüre von IBM (705 EDPM) von 1955 der Begriff„Central Pro- cessing Unit“ zuerst ausgeschrieben, später mit der Abkürzung CPU in Klammern er- gänzt und danach nur noch in seiner Kurzform verwendet. Ältere IBM-Broschüren verwenden den Begriff nicht, so z. B. die Broschüre„Magnetic Cores for Memory in Microseconds in a Great New IBM Electronic Data Processing Machine for Business“ von 1954, in der zwar ebenfalls die IBM 705 dargestellt wird, an den entsprechenden Stellen jedoch lediglich von„data processing“ die Rede ist.

In den 1950er Jahren wurden die unzuverlässigen Elektronenröhren von Transistoren verdrängt, die zudem den Stromverbrauch der Computer senkten. Anfangs wurden die Prozessoren aus einzelnen Transistoren aufgebaut. Im Laufe der Jahre brachte man aber immer mehr Transistorfunktionen auf integrierten Schaltkreisen (ICs) unter. Waren es zunächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich dann sogar Registerbänke und Rechenwerke auf einem Chip. Der Hauptprozessor konnte in einem einzelnen Schalt- schrank untergebracht werden, was zum Begriff Mainframe, also„Hauptrahmen“, bzw. „Hauptschrank“ führte. Dies war die Zeit der Minicomputer, die nun keinen ganzen Saal mehr ausfüllten, sondern nur noch ein Zimmer. Die zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip und die stetige Verklei- nerung der Transistorabmaße führte dann Anfang der 1970er Jahre fast zwangsläufig zu der Integration aller Funktionen eines Prozessors auf einem Chip, dem Mikroprozessor. Anfangs noch wegen ihrer vergleichsweise geringen Leistungsfähigkeit belächelt (der Legende nach soll ein IBM-Ingenieur über den ersten Mikroprozessor gesagt haben: „Nett, aber wozu soll das gut sein?“), haben Mikroprozessoren heute alle vorangegan- genen Techniken für den Aufbau eines Hauptprozessors abgelöst.

Dieser Trend setzte sich auch in den nachfolgenden Jahrzehnten fort. So wurde Ende der 1980er Jahre der mathematische Coprozessor und Ende der 2000er Jahre auch der Grafikprozessor in den (Haupt-)Prozessor integriert, vgl. APU.

Ein Prozessor(kem) besteht mindestens aus Registern (Speicher), einem Rechenwerk (der Arithmetic Logic Unit, kurz ALU), einem Steuerwerk sowie den Datenleitungen (Busse), die die Kommunikation mit anderen Komponenten ermöglichen (Abbildung siehe weiter unten). Diese Komponenten sind im Allgemeinen weiter unterteilbar, zum Beispiel enthält das Steuerwerk zur effizienteren Bearbeitung von Befehlen die Befehls- Pipeline mit meist mehreren Stufen, unter anderem den Befehlsdecoder, sowie ein Adresswerk; die ALU enthält unter anderem zum Beispiel Hardwaremultiplizierer. Darüber hinaus befinden sich vor allem in modernen Mikroprozessoren mitunter sehr viel feiner unterteilte Einheiten, die flexibel einsetzbar/zuteilbar sind, sowie mehrfach ausgeführte Einheiten, die das gleichzeitige Abarbeiten mehrerer Befehle erlauben (sie- he zum Beispiel Simultaneous Multithreading, Hyper-Threading, Out-of-order executi- on).

Oft ist in heutigen Prozessoren die Memory Management Unit sowie ein (evtl mehrstu- figer) Cache integriert (Level -1 -Cache„LI“ bis Level-4-Cache„L4“). Mitunter ist auch eine I/O-Unit integriert, oft zumindest ein Interrupt-Controller. Zusätzlich finden sich auch häufig spezialisierte Recheneinheiten z. B. eine Gleitkommaeinheit, eine Einheit für Vektorfunktionen oder für Signalverarbeitung. Unter diesem Aspekt sind die Über- gänge zu Mikrocontrollem oder einem System-on-a-Chip, die weitere Komponenten ei- nes Rechnersystems in einem integrierten Schaltkreis vereinen, mitunter fließend.

Ein Prozessor besteht primär aus dem Steuer-/Leit- und dem Rechenwerk (ALU). Es gibt jedoch weitere Recheneinheiten, die zwar kein Steuer- bzw. Leitwerk enthalten, aber dennoch oft ebenfalls als Prozessor bezeichnet werden. Diese im Allgemeinen Ko- prozessor genannten Einheiten stellen in der Regel spezialisierte Funktionen zur Verfü- gung. Beispiele sind die Gleitkommaeinheit sowie Grafik- und Soundprozessoren. Zur Abgrenzung dieser Koprozessoren zu einem„echten“ Prozessor mit Steuer- und Re- chenwerk wird der Begriff CPU (englisch central processing unit ['s ntiol 'p oosesirj j u:mt]) oder zu deutsch Hauptprozessor genutzt.

Moderne Mikroprozessoren sind häufig als sogenannte Mehrkemprozessoren (Multi- Core-Prozessoren) ausgelegt. Sie erlauben zusammen mit entsprechender Software eine weitere Steigerung der Gesamtrechen lei stung ohne eine merkliche Erhöhung der Takt- frequenz (die bis in die 2000er Jahre übliche Technik die Rechenleistung eines Mikro- prozessors zu erhöhen). Mehrkemprozessoren bestehen aus mehreren voneinander un- abhängigen Einheiten mit einem Rechen- und Steuerwerk, um die herum weitere Kom- ponenten wie Cache und Memory Management Unit (MMU) angeordnet sind. Diese Einheiten werden als Prozessorkem (engl, core) bezeichnet. Im Sprachgebrauch sind die Begriffe Single-Core-Prozessor, Dual-Core-, Quad-Core- und Hexa-Core -Prozessor (Sechskernprozessor) gebräuchlich (nur selten: Triple-Core-, Octa-Core-Prozessor (Achtkem), Deca-Core-Prozessor (Zehnkem)). Da die Kerne eigenständige Prozessoren sind, werden die einzelnen Kerne häufig auch als CPU bezeichnet. Diese Bezeichnung „CPU“ wird synonym zu„Core“ genutzt, beispielsweise um in Mehrkemprozessoren oder System-on-a-Chip (SoC) mit weiteren integrierten Einheiten, z. B. einem Grafik- prozessor (GPU), die Kerne mit Steuer- und Rechenwerk von den anderen Einheiten zu unterscheiden, siehe u. a. Accelerated Processing Unit (APU).

Die klassische Einteilung, dass ein Steuerwerk und eine ALU als ein CPU, Kern bzw. Prozessor bezeichnet werden, verschwimmt zunehmend. Heutige Prozessoren (auch Einkemprozessoren) besitzen oft Steuerwerke, die jeweils mehrere Hardware-Threads verwalten (Multi-/Hyper-Threading); das Betriebssystem„sieht“ mehr Prozessorkerne, als tatsächlich (vollwertige) Steuerwerke vorhanden sind. Außerdem betreibt ein Steu- erwerk oft mehrere ALUs sowie noch weitere Baugruppen wie z. B. Gleitkomma- Recheneinheit, Vektoreinheit (siehe auch AltiVec, SSE) oder eine Kryptographie- Einheit. Umgekehrt müssen sich manchmal mehrere Steuerwerke diese Spezial - Recheneinheiten teilen, was eine eindeutige Zuordnung verhindert. Das Steuerwerk, auch Leitwerk genannt, kontrolliert die Ausführung der Anweisungen. Es sorgt dafür, dass der Maschinenbefehl im Befehlsregister vom Befehlsdecoder deko- diert und vom Rechenwerk und den übrigen Komponenten der Rechenanlage ausge- führt wird. Dazu übersetzt der Befehlsdecoder binäre Maschinenbefehle mit Hilfe der Befehlstabelle (englisch instruction table) in entsprechende Anweisungen (Microcode), welche die für die Ausführung des Befehls benötigten Schaltungen aktivieren.

Dabei werden drei wesentliche Register, das heißt sehr schnell ansprechbare prozessor- interne Speicher, benötigt:

-Das Befehlsregister (englisch instruction register): Es enthält den aktuell auszuführen- den Maschinenbefehl.

-Der Befehlszähler (englisch program counter): Dieses Register zeigt bei der Befehls- ausführung auf den nächstfolgenden Befehl. (Ein Sprungbefehl lädt die Adresse seines Sprungziels hierher.)

-Das Statusregister: Es zeigt über sogenannte Flags den Status an, der von anderen Tei- len der Rechnenanlage, u. a. dem Rechen- und dem Leitwerk bei der Ausführung be- stimmter Befehle erzeugt wird, um ihn in nachfolgenden Befehlen auswerten zu kön- nen. Beispiel: Ergebnis einer arithmetischen oder einer Vergleichsoperation ergibt ,Null‘, , Minus 1 o. ä., ein Übertrag (Carry) ist bei einer Rechenoperation zu berücksich- tigen.

In RISC-Prozessoren ist mitunter kein Befehlsdekoder notwendig - in manchen RISC- Prozessoren verschalten die Befehls-Bits die entsprechenden ALU- und Register- Einheiten direkt. Dort gibt es dann auch keinen Microcode. Die meisten modernen Pro- zessorarchitekturen sind RISC-artig oder besitzen einen RISC-Kern für die häufigen, einfachen Befehle sowie eine übersetzende Emulationsschicht davor, die komplexe Be- fehle in mehrere RISC-Befehle übersetzt.

Ebenso kann ein explizites Befehlregister durch eine Pipeline ersetzt sein. Mitunter sind mehrere Befehle gleichzeitig in Bearbeitung, dann kann auch die Reihenfolge ihrer Ab- arbeitung umsortiert werden (Out-of-order execution). Das Rechenwerk führt die Ele- mentaroperationen eines Prozessors durch. Es besteht zum einen aus der arithmetisch- logischen Einheit (ALU), zum anderen aus den Arbeitsregistem. Es kann sowohl arith- metische (etwa die Addition zweier Zahlen) als auch logische (etwa AND oder OR) Operationen ausführen. Aufgrund der Komplexität moderner Prozessoren, bei denen meist mehrere Rechenwerke mit spezialisierten Funktionen vorhanden sind, spricht man auch allgemein vom Operationswerk.

Die Arbeitsregister können Daten (als Datenregister) und, abhängig vom Prozessortyp, auch Adressen (als Adressregister) aufnehmen. Meist können nur mit den Werten in den Registern Operationen direkt ausgeführt werden. Sie stellen daher die erste Stufe der Speicherhierarchie dar. Von den Eigenschaften und insbesondere der Größe und Anzahl der Register (abhängig vom Prozessortyp) hängt u. a. die Leistungsfähigkeit des jeweiligen Prozessors ab.

Ein spezielles Adressregister ist der Stapelzeiger (englisch Stackpointer), der die Rück- sprungadresse bei einem Unterprogrammaufruf aufnimmt. Auf dem Stack werden dann zusätzlich oft Registerkopien gesichert und neue, lokale Variablen angelegt.

Über verschiedene Busse (Signalleitungen) ist der Prozessor mit anderen Komponenten verbunden.

Über den Datenbus werden Daten mit dem Arbeitsspeicher ausgetauscht, etwa die In- formationen für die Arbeitsregister und das Befehlsregister. Je nach verwendeter Pro- zessorarchitektur hat ein Hauptprozessor (eine CPU) einen einzigen Bus für Daten aus dem Arbeitsspeicher (Von-Neumann-Architektur) oder mehrere (meist zwei) separate Datenleitungen für den Programmcode und normale Daten (Harvard-Architektur).Der Adressbus dient zur Übertragung von Speicheradressen. Dabei wird jeweils eine Spei- cherzelle des RAM adressiert (ausgewählt) in die - je nach Signal des Steuerbusses - die Daten, die gerade auf dem Datenbus liegen, geschrieben oder aus denen die Daten gelesen, d. h. auf den Datenbus gelegt, werden. Mit dem Steuerbus (Kontrollbus) steuert der Prozessor u. a., ob Daten gerade geschrie- ben oder gelesen werden sollen, ob er einem anderen Bus-Master im Rahmen eines Speicherdirektzugriffs (DMA) den Bus überlässt, oder der Adressbus statt des RAMs einen Peripherie-Anschluss meint (beim Isolated I/O). Eingangsleitungen lösen bei- spielsweise einen Reset oder Interrupts aus, versorgen ihn mit einem Taktsignal oder empfangen eine„Bus-Anforderung“ von einem DMA-Gerät.

Zwischen die Daten leitungen und das Registerwerk ist als Teil des Steuerwerks das so- genannte Bus-Interface geschaltet, das die Zugriffe steuert und bei gleichzeitigen An- forderungen verschiedener Untereinheiten eine Priorisierung vornimmt. Moderne Pro- zessoren, die in PCs oder anderen Geräten eingesetzt werden, die eine schnelle Daten- verarbeitung benötigen, sind mit sogenannten Caches ausgestattet. Caches sind Zwi- schenspeicher, die die zuletzt verarbeiteten Daten und Befehle Zwischenspeichern und so die rasche Wiederverwendung ermöglichen. Sie stellen die zweite Stufe der Spei- cherhierarchie dar. Normalerweise besitzt ein Prozessor heutzutage bis zu vierstufige Caches:

Level-l-Cache (Ll-Cache): Dieser Cache läuft mit dem Prozessortakt. Er ist sehr klein (etwa 4 bis 256 Kilobyte), dafür aufgrund seiner Position im Prozessorkern selbst sehr schnell abrufbar.

Level-2-Cache (L2 -Cache): Der L2 -Cache befindet sich meist im Prozessor, aber nicht im Kern selbst. Er umfasst zwischen 64 Kilobyte und 12 Megabyte.

Level-3-Cache (L3-Cache): Bei Mehrkemprozessoren teilen sich die einzelnen Kerne den L3-Cache. Er ist der zweit-langsamste der vier Caches, aber meist bereits sehr groß (bis zu 256 Megabyte).

Level-4-Cache (L4-Cache): Wenn vorhanden, dann meist außerhalb der CPU auf einem Interposer oder dem Mainboard. Er ist der langsamste der vier Caches (nur selten über 128 Megabyte).

Die Memory Management Unit übersetzt die virtuelle Adressen der in Ausführung be- findlichen Prozesse in reale Adressen, für alle Prozessorkeme gleichzeitig, und stellt die Cache-Kohärenz sicher: Ändert ein Kern einen Speicherinhalt, so muss sichergestellt werden, dass die anderen Caches keine veralteten Werte enthalten. Abhängig von ihrer genauen Ansiedlung beinhalten die Cache-Stufen Daten entweder bezüglich virtueller oder realer Adressen.

Um die Rollen der Untereinheiten konkreter zu veranschaulichen, hier der Ablauf der Verarbeitung eines einzelnen Maschinenbefehls. Die aufgeführten Einzelschritte kön- nen teilweise gleichzeitig oder überlappend ablaufen, die Nummerierung hat nichts mit der Anzahl der Taktzyklen zu tun, die der Befehl benötigt. Zusätzliche Feinheiten wie Prozessor-Pipelines oder Sprungvorhersage (Branch Prediction) fuhren zu weiteren Ti- ming-Finessen, die hier im Sinne der Vereinfachung vorerst weggelassen werden. Aus dem gleichen Grund sind komplexe Berechnungen abhängig von der gewählten Adres- sierungsart zur Ermittlung einer endgültigen Speicheradresse nicht erwähnt.

Laden des nächsten Befehls: Der Befehlszähler, der die Adresse des nächsten Befehls enthält, wird vom Steuerwerk über das Bus-Interface auf den Adressbus gelegt; dann wird ein Leseimpuls an die Speicherverwaltung signalisiert. Der Befehlszähler wird parallel dazu auf die nächste Adresse weitergezählt.Die Speicherverwaltung legt den Datenwert aus dieser (virtuellen) RAM-Adresse auf die Datenleitungen; sie hat den Wert im Cache oder im RAM gefunden. Nach der Verzögerung durch die endliche Zu- griffszeit des RAMs liegt an den Daten leitungen der Inhalt dieser Speicherzelle an.Das Steuerwerk kopiert diese Daten über das Bus-Interface in das Befehlsregister.Der Be- fehl wird vor-decodiert, ob er komplett geladen ist.

Wenn es ein Befehl ist, der aus mehreren Bytes besteht, werden sie (falls das durch eine größere Busbreite nicht schon geschehen ist) durch Wiederholung der Schritte 1 bis 4 aus dem Speicher geholt und in die zuständigen Prozessorregister kopiert. Gehört zum Befehl auch das Auslesen einer Speicherzelle des RAMs, wird vom Steuerwerk die Adresse für diese Daten auf die Adressleitungen gelegt, ein Leseimpuls wird signali- siert. Danach muss genügend lange Zeit gewartet werden, dass das RAM diese Informa- tionen sicher bereitstellen konnte. Anschließend wird der Datenbus ausgelesen und in das zuständige Prozessorregister kopiert. Der Befehl wird fertig-decodiert und die zu seiner Abarbeitung benötigten Untereinhei- ten aktiviert, die internen Datenpfade werden entsprechend geschaltet. Das Rechenwerk erledigt die eigentliche Verarbeitung innerhalb des Prozessors, beispielsweise die Addi- tion zweier Registerinhalte. Das Ergebnis landet wieder in einem der Prozessorregister. Wenn der Befehl ein Sprung- oder Verzweigungsbefehl ist, wird das Ergebnis nicht in einem Datenregister abgelegt, sondern im Befehlszähler.Das Steuerwerk aktualisiert je nach Ergebniswert ggf. das Statusregister mit seinen Zustandsflags.

Gehört zum Befehl auch das Rückspeichem eines Ergebnisses/Registerinhalts in das RAM, wird vom Steuerwerk die Adresse für diese Daten auf die Adressleitungen gelegt und der Dateninhalt auf die Datenleitungen, ein Schreibimpuls wird signalisiert. Danach muss genügend lange Zeit gewartet werden, dass das RAM diese Informationen sicher aufnehmen konnte.Der Befehl ist jetzt abgearbeitet, und es kann oben bei Schritt 1 zum nächsten Befehl weitergeschritten werden.

Die beiden wesentlichen Grundarchitekturen tür CPUs sind die Von-Neumann- und die Harvard -Architektur. Bei der nach dem Mathematiker John von Neumann benannten Von-Neumann-Architektur gibt es keine Trennung zwischen dem Speicher für Daten und Programmcode. Dagegen sind bei der Harvard-Architektur Daten und Programm(e) in strikt voneinander getrennten Speicher- und Adressräumen abgelegt, auf die typi- scherweise durch zwei separierte Bussysteme parallel zugegriffen wird.

Beide Architekturen haben ihre spezifischen Vor- und Nachteile. In der Von-Neumann- Architektur können Programmcode und Daten grundsätzlich identisch behandelt wer- den. Hierdurch sind einheitliche Betriebssystem-Routinen zum Laden und Speichern verwendbar. Auch kann der Programmcode im Gegensatz zur Harvard -Architektur sich selbst modifizieren oder als„Daten“ behandelt werden, wodurch Maschinencode z. B. per Debugger leicht bearbeitbar und modifizierbar ist. Nachteile/Risiken liegen im Be- reich der Softwareergonomie und -Stabilität, zum Beispiel können Laufzeitfehler wie ein Pufferüberlauf den Programmcode modifizieren. Durch die Trennung in zwei physikalische Speicher und Busse hat die Harvard- Architektur potenziell eine höhere Leistungsfähigkeit, da Daten- und Programmzugriffe parallel erfolgen können. Bei einer Harvard-Architektur sind durch die physische Tren- nung von Daten und Programm einfach eine Zugriffsrechtetrennung und Speicherschutz realisierbar. Um z. B. zu verhindern, dass bei Softwarefehlem Programmcode über- schrieben werden kann, wurde (vor allem historisch) für Programmcode ein im Betrieb nur lesbarer Speicher (z. B. ROM, Lochkarten) verwendet, für die Daten dagegen schreib- und lesbarer Speicher (z. B. RAM, Ringkemspeicher).

Praktisch alle modernen CPUs stellen sich aus Programmsicht als Von-Neumann- Architektur dar, ihr interner Aufbau entspricht aber aus Leistungsgründen in vielen As- pekten eher einer parallelen Harvard-Architektur. So ist es nicht unüblich, dass eine CPU intern mehrere unabhängige Datenpfade (insbesondere beim LI -Cache) und Cachehierarchiestufen besitzt, um mit möglichst vielen parallelen Datenpfaden eine ho- he Leistung zu erzielen. Die dadurch potenziell möglichen Daten-Inkohärenzen und Zugriffs-Race-Conditions werden intern durch aufwändige Datenprotokolle und - management verhindert.

Auch werden heutzutage Arbeitsspeicher-Bereiche, die ausschließlich Daten beinhalten, als nicht ausführbar markiert, sodass Exploits, die ausführbaren Code in Datenbereichen ablegen, diesen nicht ausführen können. Umgekehrt kann das Schreiben in Bereiche mit Programmcode verweigert werden (Pufferüberlauf-Exploits).

Der Befehlssatz bezeichnet die Gesamtheit der Maschinenbefehle eines Prozessors. Der Umfang des Befehlssatzes variiert je nach Prozessortyp beträchtlich. Ein großer Be- fehlssatz ist typisch für Prozessoren mit CISC-Architektur (englisch Complex In- struction Set Computing - Rechnen mit komplexem Befehlssatz), ein kleiner Befehls- satz ist typisch flir Prozessoren mit RISC-Prozessorarchitektur (englisch Reduced In- struction Set Computing - Rechnen mit reduziertem Befehlssatz). Die traditionelle CISC-Architektur versucht, immer mehr und immer komplexere Funk- tionen direkt durch Maschinenbefehle auszudrücken. Sie zeichnet sich besonders durch die große Anzahl zur Verfügung stehender Maschinenbefehle aus, die meist 100 (weit) überschreitet. Diese sind außerdem in der Lage, komplexe Operationen direkt auszufüh- ren (etwa Gleitkommazahl-Operationen). Dadurch können komplexe Vorgänge durch wenige,„mächtige“ Befehle implementiert werden. Das Nebeneinander von komplexen (langwierigen) und einfachen (schnell ausführbaren) Befehlen macht ein effizientes Prozessordesign schwierig, besonders das Pipelinedesign.

In den 1980er Jahren entstand als Reaktion darauf das RISC-Konzept, mit dem bewus- sten Verzicht auf das Bereitstellen von komplexer Funktionalität in Instruktionsform. Es werden ausschließlich einfache, untereinander ähnlich komplexe Instruktionen be- reitgestellt. Dabei wird versucht, sehr schnell abzuarbeitende Befehle zur Verfügung zu stellen, dafür jedoch nur wenige (weniger als 100), sehr einfache. Hierdurch vereinfach- te sich das Prozessordesign deutlich und ermöglichte Optimierungen, die üblicherweise eine höhere Prozessortaktung und wiederum schnellere Ausführungsgeschwindigkeit erlaubten. Dies geht unter anderem darauf zurück, dass weniger Taktzyklen benötigt werden und die Dekodierung aufgrund geringerer Komplexität schneller ist. Ein einfa- cheres Prozessordesign bedeutet jedoch eine Verschiebung des Entwicklungsaufwands hin zur Software als Bereitsteller komplexerer Funktionalität. Der Compiler hat nun die Aufgabe einer effizienten und korrekten Umsetzung mit dem vereinfachten Instrukti- onsatz.

Heute ähnelt die weit verbreitete x86-Architektur - als (früher) typischer Vertreter der CISC-Klasse - intern einer RISC -Architektur: Einfache Befehle sind meist direkt m- Operationen; komplexe Befehle werden in m-Ops zerlegt. Diese m-Ops ähneln den ein- fachen Maschinenbefehlen von RISC-Systemen, wie auch der interne Prozessoraufbau (z. B. gibt es keinen Microcode mehr für die m-Operationen, sie werden„direkt ver- wendet“). Eine weitere Art eines Prozessordesigns ist die Verwendung von VLIW. Dort werden mehrere Instruktionen in einem Wort zusammengefasst. Dadurch ist vom Anfang an de- finiert, auf welcher Einheit welche Instruktion läuft. Out-of-Order-Ausführung, wie sie in modernen Prozessoren zu finden ist, gibt es bei dieser Art von Befehlen nicht.

Zusätzlich unterscheidet man auch noch zwischen der Adressanzahl im Maschinenbe- fehl:

Null-Adressbefehle (Stackrechner)

Ein-Adressbefehle (Akkumulatorrechner)

Zwei-, Drei- und Vier-Adressbefehle (ALTIVEC hatte z. B. Vieroperanden-Befehle)

Die Befehlsbearbeitung eines Prozessorkems folgt prinzipiell dem Von-Neumann- Zyklus.

„FETCH“: Aus dem Befehlsadressregister wird die Adresse des nächsten Maschinenbe- fehls gelesen. Anschließend wird dieser aus dem Arbeitsspeicher (genauer: aus dem LI - Cache) in das Befehlsregister geladen.

„DECODE“: Der Befehlsdecoder decodiert den Befehl und aktiviert entsprechende Schaltungen, die für die Ausführung des Befehls nötig sind.

„FETCH OPERANDS“: Sofern zur Ausführung weitere Daten zu laden sind (benötigte Parameter), werden diese aus dem LI -Cache-Speicher in die Arbeitsregister geladen. „EXECUTE“: Der Befehl wird ausgeführt. Dies können zum Beispiel Operationen im Rechenwerk, ein Sprung im Programm (eine Veränderung des Befehlsadressregisters), das Zurückschreiben von Ergebnissen in den Arbeitsspeicher oder die Ansteuerung von Peripheriegeräten sein. Abhängig vom Ergebnis mancher Befehle wird das Statusregi- ster gesetzt, das durch nachfolgende Befehle auswertbar ist.

„UPDATE INSTRUCTION POINTER“: Sollte kein Sprungbefehl in der EXECUTE- Phase erfolgt sein, wird nun das Befehlsadressregister um die Länge des Befehls erhöht, so dass es auf den nächsten Maschinenbefehl zeigt.

Gelegentlich unterscheidet man auch noch eine Rückschreibphase, in der eventuell an- fallende Rechenergebnisse in bestimmte Register geschrieben werden (siehe Out-of- order execution, Schritt 6). Erwähnt werden sollten noch sogenannte Hardware- Interrupts. Die Hardware eines Computers kann Anfragen an den Prozessor stellen. Da diese Anfragen asynchron auftreten, ist der Prozessor gezwungen, regelmäßig zu prü- fen, ob solche vorliegen und diese eventuell vor der Fortsetzung des eigentlichen Pro- gramms zu bearbeiten.

Alle Programme liegen als eine Folge von binären Maschinenbefehlen im Speicher. Nur diese Befehle können vom Prozessor verarbeitet werden. Dieser Code ist für einen Menschen jedoch beinahe unmöglich zu lesen. Aus diesem Grund werden Programme zunächst in Assemblersprache oder einer Hochsprache (etwa BASIC, C, C++, Java) ge- schrieben und dann von einem Compiler in eine ausführbare Datei, also in Maschinen- sprache übersetzt oder einem Interpreter zur Laufzeit ausgeführt.

Um es zu ermöglichen, Programme in akzeptabler Zeit und verständlich zu schreiben, wurde eine symbolische Schreibweise für Maschinenbefehle eingeführt, sogenannte Mnemonics. Maschinenbefehle werden durch Schlüssel worte für Operationen (z. B. MOV für move, also„bewegen“ oder„[verschieben“) und durch optionale Argumente (wie BX und 85F3h) dargestellt. Da verschiedene Prozessortypen verschiedene Ma- schinenbefehle besitzen, existieren für diese auch verschiedene Mnemonics. Assem- blersprachen setzen oberhalb dieser prozessortypenabhängigen Mnemonik auf und be- inhalten Speicherreservierung, Verwaltung von Adressen, Makros, Funktionsheader, Definieren von Strukturen usw.

Prozessorunabhängige Programmierung ist erst durch Benutzung abstrakter Sprachen möglich. Dies können Hochsprachen sein, aber auch Sprachen wie FORTH oder gar RTL. Es ist nicht die Komplexität der Sprache wichtig, sondern deren Hardware- Abstraktion.

Die Inhalte der Speicherzellen mit den Adresse 85F2h und 85F3h (dezimal: 34290 und 34291) relativ zum Start des Datensegments (bestimmt durch DS) werden in das Regi- ster BX geladen. Dabei wird der Inhalt von 85F2h in den niederwertigen Teil BL und der Inhalt von 85F3h in den höherwertigen Teil BH geschrieben.

Der Wert 15 wird zum Inhalt des Arbeitsregisters BX addiert. Das Flagregister wird entsprechend dem Ergebnis gesetzt.

Binäre Maschinenbefehle : Maschinenbefehle sind sehr prozessorspezifisch und beste- hen aus mehreren Teilen. Diese umfassen zumindest den eigentlichen Befehl, den Ope- rationscode (OP-CODE), die Adressierungsart, und den Operandenwert oder eine Adresse. Sie können grob in folgende Kategorien eingeteilt werden: Arithmetische Be- fehle, Logische Befehle, Sprungbefehle, Transportbefehle, Prozessorkontrollbefehle:

Alle Prozessoren mit höherer Verarbeitungsleistung sind heutzutage modifizierte Har- vard-Architekturen, da die Harvard- Architektur durch die strikte Trennung zwischen Befehlen und Daten einige Probleme mit sich bringt. Zum Beispiel ist es für selbstmo- difizierenden Code nötig, dass Daten auch als Befehle ausgeführt werden können. Ebenso ist es für Debugger wichtig, einen Haltepunkt im Programmablauf setzen zu können, was ebenfalls einen Transfer zwischen Befehls- und Datenadressraum nötig macht. Die Von-Neumann-Architektur findet man bei kleinen Mikrocontrollem. Der Laie darf sich nicht durch den gemeinsamen Adressraum von Befehlen und Daten eines oder mehrerer Kerne irritieren lassen. Das Zusammenfassen von Befehls- und Daten- adressraum findet auf Ebene von Cache-Controllern und deren Kohärenzprotokollen statt. Das gilt nicht nur für diese beiden Adressräume (wo dies meist auf L2 -Ebene er- folgt), sondern bei Multiprozessor-Systemen auch zwischen denen verschiedener Kerne (hier erfolgt es meist auf L3-Ebene) bzw. bei Multi-Sockel-Systemen beim Zusammen- fassen deren Hauptspeichers. Mikroprozessoren sind bis auf wenige Ausnahmen (z. B. der Sharp SC61860) interrupt- fähig, Programmabläufe können durch externe Signale unterbrochen oder aber auch ab- gebrochen werden, ohne dass das im Programmablauf vorgesehen sein muss. Ein Inter- rupt-System erfordert zum einen ein Interrupt -Logik (d. h. auf Zuruf einschiebbare Be- fehle) und zum anderen die Fähigkeit, den internen Zustand des Prozessors zu retten und wiederherzustellen, um das ursprüngliche Programm nicht zu beeinträchtigen. Hat ein Mikroprozessor kein Interruptsystem, muss die Software durch Polling die Hard- ware selbst abfragen.

Neben der geordneten Befehlsausführung beherrschen vor allem moderne Hochlei- stungsprozessoren weitere Techniken, um die Programmabarbeitung zu beschleunigen. Vor allem moderne Hochleistungsmikroprozessoren setzen parallele Techniken wie et- wa Pipelining und Superskalarität ein, um eine evtl mögliche parallele Abarbeitung mehrerer Befehle zu ermöglichen, wobei die einzelnen Teilschritte der Befehlsausfüh- rung leicht versetzt zueinander sind. Eine weitere Möglichkeit, die Ausführung von Programmen zu beschleunigen, ist die ungeordnete Befehlsausführung (englisch Out- of-order execution), bei der die Befehle nicht strikt nach der durch das Programm vor- gegebenen Reihenfolge ausgeführt werden, sondern der Prozessor die Reihenfolge der Befehle selbständig zu optimieren versucht.

Die Motivation für eine Abweichung von der vorgegebenen Befehlsfolge besteht darin, dass aufgrund von Verzweigungsbefehlen der Programmlauf nicht immer sicher vor- hergesehen werden kann. Möchte man Befehle bis zu einem gewissen Grad parallel ausführen, so ist es in diesen Fällen notwendig, sich für eine Verzweigung zu entschei- den und die jeweilige Befehlsfolge spekulativ auszuführen. Es ist dann möglich, dass der weitere Programmlauf dazu führt, dass eine andere Befehlsfolge ausgeführt werden muss, so dass die spekulativ ausgeführten Befehle wieder rückgängig gemacht werden müssen. In diesem Sinne spricht man von einer ungeordneten Befehlsausführung.

Maschinenbefehle beziehen sich auf festgelegte Quell- oder Zielobjekte, die sie entwe- der verwenden und/oder auf diese wirken. Diese Objekte sind in codierter Form als Teil des Maschinenbefehls angegeben, weshalb ihre effektive (logische*) Speicheradresse bei bzw. vor der eigentlichen Ausführung des Befehls ermittelt werden muss. Das Er- gebnis der Berechnung wird in speziellen Adressierungseinrichtungen der Hardware (Registern) bereitgestellt und bei der Befehlsausführung benutzt. Zur Berechnung wer- den verschiedene Adressierungsarten (-Varianten) verwendet, abhängig von der Struk- tur des Befehls, die je Befehlscode einheitlich festgelegt ist.

Die Berechnung der physikalischen Adressen anhand der logischen Adressen ist davon unabhängig und wird in der Regel von einer Memory Management Unit durchgeführt. Die folgende Grafik gibt einen Überblick über die wichtigsten Adressierungsarten, wei- tere Angaben zur Adressierung siehe Adressierung (Rechnerarchitektur). Bei einer Re- gisteradressierung steht der Operand bereits in einem Prozessorregister bereit und muss nicht erst aus dem Speicher geladen werden. Erfolgt die Registeradressierung implizit, so wird das implizit für den Opcode festgelegte Register mitadressiert (Beispiel: der Opcode bezieht sich implizit auf den Akkumulator).

Bei expliziter Registeradressierung ist die Nummer des Registers in einem Registerfeld des Maschinenbefehls eingetragen. Beispiel: | C | RI | R2 | Addiere Inhalt von RI auf den Inhalt von R2; C=Befehlscode, Rn=Register(n). Bei einstufigen Adressierungsarten kann die effektive Adresse durch eine einzige Adressberechnung ermittelt werden. Es muss also im Laufe der Adressberechnung nicht erneut auf den Speicher zugegriffen werden. Bei unmittelbarer Adressierung enthält der Befehl keine Adresse, sondern den Operanden selbst; meist nur für kurze Operanden wie Ό', T, 'AB' usw. anwendbar.

Bei direkter Adressierung enthält der Befehl die logische Adresse selbst, es muss also keine Adressberechnung mehr ausgeführt werden.

Bei Register-indirekter Adressierung ist die logische Adresse bereits in einem Adress- register des Prozessors enthalten. Die Nummer dieses Adressregisters wird im Maschi- nenbefehl übergeben. Bei der indizierten Adressierung erfolgt die Adressberechnung mittels Addition: Der Inhalt eines Registers wird zu einer zusätzlich im Befehl überge- benen Adressangabe hinzugerechnet. Eine der beiden Adressangaben enthält dabei i. d. R. eine Basisadresse, während die andere ein Offset' zu dieser Adresse enthält. Siehe auch Registertypen. Beispiel: | C | RI | R2 | O | Lade Inhalt von R2 + Inhalt (Offset) ins RI; 0=OffsetBei Programmzähler-relativer Adressierung wird die neue Adresse aus dem aktuellen Wert des Programmzählers und einem Offset ermittelt.

Bei zweistufigen Adressierungsarten sind mehrere Rechenschritte notwendig, um die effektive Adresse zu erhalten. Insbesondere ist im Laufe der Berechnung meist ein zu- sätzlicher Speicherzugriff notwendig. Als Beispiel sei hier die indirekte absolute Adres- sierung genannt. Dabei enthält der Befehl eine absolute Speicheradresse. Das Spei- cherwort, das unter dieser Adresse zu finden ist, enthält die gesuchte effektive Adresse. Es muss also zunächst mittels die gegebene Speicheradresse im Speicher zurückgegrif- fen werden, um die effektive Adresse für die Befehlsausführung zu ermitteln. Das kennzeichnet alle zweistufigen Verfahren. Beispiel: | C | RI | R2 | AA | Lade nach RI = Inhalt R2 + an Adr(AA) stehenden Inhalt Die Leistung eines Prozessors wird maßgeb- lich durch die Anzahl der Transistoren sowie durch die Wortbreite und den Pro- zessortakt bestimmt.

Wortbreite: Die Wortbreite legt fest, wie lang ein Maschinenwort des Prozessors sein kann, d. h. aus wie vielen Bits es maximal bestehen kann. Ausschlaggebend sind dabei folgende Werte:

-Arbeits- oder Datenregister: Die Wortbreite bestimmt die maximale Größe der verar- beitbaren Ganz- und Gleitkommazahlen.

-Datenbus: Die Wortbreite legt fest, wie viele Bits gleichzeitig aus dem Arbeitsspeicher gelesen werden können.

-Adressbus: Die Wortbreite legt die maximale Größe einer Speicheradresse, d. h. die maximale Größe des Arbeitsspeichers, fest.

-Steuerbus: Die Wortbreite legt die Art der Peripherieanschlüsse fest.

Die Wortbreite dieser Einheiten stimmt im Normalfall überein, bei aktuellen PCs be- trägt sie 32 bzw. 64 Bit.

-Prozessortakt Die Taktrate (englisch clock rate) wird besonders in der Werbung oft als Beurteilungs- kriterium für einen Prozessor präsentiert. Es wird allerdings nicht vom Prozessor selbst bestimmt, sondern ist ein Vielfaches des Mainboard-Grundtaktes. Dieser Multiplikator und der Grundtakt lässt sich bei einigen Mainboards manuell oder im BIOS einstellen, was als Über- oder Untertakten bezeichnet wird. Bei vielen Prozessoren ist der Multi- plikator jedoch gesperrt, sodass er entweder gar nicht verändert werden kann oder nur bestimmte Werte zulässig sind (oft ist der Standardwert gleichzeitig der Maximalwert, sodass über den Multiplikator nur Untertakten möglich ist). Das Übertakten kann zu ir- reparablen Schäden an der Hardware führen. CPU-Ausführungszeit = CPU-Taktzyklen x Taktzykluszeit. Weiterhin gilt: Taktzykluszeit = 1 / Taktrate = Programmbefehle x CPI x TaktzykluszeitDie Geschwindigkeit des gesamten Systems ist jedoch auch von der Größe der Caches, des Arbeitsspeichers und anderen Faktoren abhängig.

Einige Prozessoren haben die Möglichkeit die Taktrate zu erhöhen, bzw. zu verringern, wenn es nötig ist. Zum Beispiel, wenn hochauflösende Videos angeschaut oder Spiele gespielt werden, die hohe Anforderungen an das System stellen, oder umgekehrt der Prozessor nicht stark beansprucht wird. Im Bereich der Personal Computer ist die histo- risch gewachsene x86-Architektur weit verbreitet.Interessanter und weniger bekannt ist der Einsatz von Embedded-Prozessoren und Mikrocontrol lern beispielsweise in Motor- steuergeräten, Uhren, Druckern sowie einer Vielzahl elektronisch gesteuerter Geräte.

69. Arbeitsspeicher

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens einen Arbeitsspeicher enthaltend.

Der Arbeitsspeicher oder Hauptspeicher (englisch core, main störe, main memory, pri- mary memory, RAM = Random Access Memory) eines Computers ist die Bezeichnung für den Speicher, der die gerade auszuführenden Programme oder Programmteile und die dabei benötigten Daten enthält. Der Hauptspeicher ist eine Komponente der Zen- traleinheit. Da der Prozessor unmittelbar auf den Hauptspeicher zugreift, beeinflussen dessen Leistungsfähigkeit und Größe in wesentlichem Maße die Leistungsfähigkeit der gesamten Rechenanlage.

Arbeitsspeicher wird charakterisiert durch die Zugriffszeit bzw. Zugriffsgeschwindig- keit und (damit verbunden) die Datenübertragungsrate sowie die Speicherkapazität. Die Zugriffsgeschwindigkeit beschreibt die Dauer, bis ein angeffagtes Datum gelesen wer- den kann. Die Datenübertragungsrate gibt an, welche Datenmenge pro Zeit gelesen werden kann. Es können getrennte Angaben für Schreib- und Lesevorgang existieren. Zur Benennung der Arbeitsspeichergröße existieren zwei unterschiedliche Notations- formen, die sich aus der verwendeten Zahlenbasis ergeben. Entweder wird die Größe zur Basis 10 angegeben (als Dezimalpräfix; 1 kByte oder kB = 103 Bytes = 1000 Bytes, SI-Notation) oder zur Basis 2 (als Binärpräfix; 1 KiB = 210 Bytes = 1024 Bytes, IEC- Notation). Aufgrund der binärbasierten Struktur und Adressierung von Arbeitsspeichern (Byte-adressiert bei 8-Bit-Aufteilung, wortadressiert bei 16-Bit- Aufteilung, doppel- wortadressiert bei 32-Bit-Aufteilung usw.) ist letztere Variante die üblichere Form, die zudem ohne Brüche auskommt.

Soweit Arbeitsspeicher über den Adressbus des Prozessors angesprochen wird oder di- rekt im Prozessor integriert ist, spricht man von physischem Speicher. Modernere Pro- zessoren und Betriebssysteme können durch virtuelle Speicherverwaltung mehr Ar- beitsspeicher bereitstellen, als physischer Speicher vorhanden ist, indem sie Teile des Adressraums mit anderen Speichermedien hinterlegen (etwa mit einer Auslagerungsda- tei, pagefile oder swap u. a.). Dieser zusätzliche Speicher wird virtueller Speicher ge- nannt. Zur Beschleunigung des Speicherzugriffs - physisch oder virtuell - kommen heute zusätzliche Pufferspeicher zum Einsatz.

Der Arbeitsspeicher des Computers ist ein durch Adressen (in Tabellenform) struktu- rierter Bereich, der Binärwörter fester Größe aufnehmen kann. Durch die binäre Adres- sierung bedingt hat Arbeitsspeicher praktisch immer eine 'binäre' (auf Potenzen von 2 basierende) Größe, da andernfalls Bereiche ungenutzt blieben. Der Arbeitsspeicher moderner Computer ist flüchtig, d. h., dass alle Daten nach dem Abschalten der Energieversorgung verloren gehen - der Hauptgrund dafür liegt in der Technologie der DRAMs. Verfügbare Alternativen wie etwa MRAM sind allerdings für die Verwendung als Arbeitsspeicher noch zu langsam. Deshalb enthalten die Computer auch Festspeicher in Form von Festplatten oder SSDs, auf dem das Betriebssystem und die Anwendungsprogramme und Dateien beim Abschalten erhalten bleiben.

Die häufigste Bauform für den Einsatz in Computern ist das Speichermodul. Es ist zwi- schen verschiedenen RAM-Typen zu unterscheiden. Waren in den 1980em noch übli- che Bauweisen Speicher in Form von ZIP-, SIPP- oder DIP -Modulen, so wurden in den 1990ern vorwiegend SIMMs mit FPM- oder EDO-RAM genutzt. Heute kommen in Computern in erster Linie DIMMs mit z. B. SD-, DDR-SD-, DDR2-SD-, DDR3-SD oder DDR4-SDRAMs zum Einsatz.

Die ersten Computer hatten keinen Arbeitsspeicher, nur einige Register, die mit der gleichen Technik wie das Rechenwerk aufgebaut waren, also Röhren oder Relais. Pro- gramme waren fest verdrahtet („gesteckt“) oder auf anderen Medien, wie zum Beispiel Lochstreifen oder Lochkarten gespeichert und wurden nach dem Lesen direkt ausge- führt.

„In Rechenanlagen der 2. Generation dienten Trommelspeicher als Hauptspeicher“ (Dworatschek). Zusätzlich wurde in der Anfangszeit auch mit eher exotischen Ansätzen experimentiert, so mit Laufzeitspeichem in Quecksilberbädem oder in Glasstabspiralen (mit Ultraschallwellen beschickt). Später wurden Magnetkernspeicher eingeführt, die die Information in kleinen Ferritkernen speicherten. Diese waren in einer kreuzförmi- gen Matrix aufgefadelt, wobei sich je eine Adressleitung und eine Wortleitung in der Mitte eines Ferritkerns kreuzten. Der Speicher war nicht flüchtig, die Information ging jedoch beim Lesen verloren und wurde anschließend von der Ansteuerungslogik sofort wieder zurückgeschrieben. Solange der Speicher nicht beschrieben oder gelesen wur- den, floss kein Strom. Er ist um einige Größenordnungen voluminöser und teurer her- zustellen als moderne Halbleiterspeicher. Typische Großrechner waren Mite der 1960er Jahre mit 32 bis 64 Kilobyte großen Hauptspeichern ausgestatet (zum Beispiel IBM 360-20 oder 360-30), Ende der 1970er Jahre (zum Beispiel die Telefunken TR 440) mit 192.000 Worten ä 52 Bit (neto 48 Bit), also mit über 1 Megabyte.

Der Kernspeicher als Ganzes bot ausreichend Platz, neben dem Betriebssystem, das ak- tuell auszuführende Programm zunächst von einem externen Medium in den Arbeits- speicher zu laden und alle Daten zu halten. Programme und Daten liegen in diesem Modell aus Sicht des Prozessors im gleichen Speicher, die heute am weitesten verbrei- tete Von-Neumann-Architektur wurde eingeführt.

Mit Einführung der Mikroelektronik wurde der Arbeitsspeicher zunehmend durch inte- grierte Schaltungen (Chips) ersetzt. Jedes Bit wurde in einem bistabilen Schalter (Flipflop) gespeichert, das mindestens zwei, mit Ansteuerlogik aber bis zu sechs Tran- sistoren benötigt und relativ viel Chipfläche verbraucht. Solche Speicher verbrauchen immer Strom. Typische Größen waren integrierte Schaltungen (ICs) mit 1 KiBit, wobei jeweils acht ICs gemeinsam adressiert wurden. Die Zugriffszeiten lagen bei einigen 100 Nanosekunden und waren schneller als die Prozessoren, die um ein Megahertz getaktet waren. Das ermöglichte zum einen die Einführung von Prozessoren mit sehr wenigen Registern wie dem MOS Technology 6502 oder dem TMS9900 von Texas Instruments, die ihre Berechnungen größtenteils im Arbeitsspeicher durchführten. Zum anderen er- möglichte es den Bau von Heimcomputem, deren Videologik einen Teil des Arbeits- speichers als Bildschirmspeicher verwendete und parallel zum Prozessor darauf zugrei- fen konnte.

Ende der 1970er Jahre wurden dynamische Arbeitsspeicher entwickelt, die die Informa- tion in einem Kondensator speichern und nur noch einen zusätzlichen Feldeffektran- sistor pro Speicherbit benötigen. Sie können sehr klein aufgebaut werden und benötigen sehr wenig Leistung. Der Kondensator verliert die Information allerdings langsam, die Information muss daher in Abständen von einigen Millisekunden immer wieder neu ge- schrieben werden. Das geschieht durch eine externe Logik, die den Speicher periodisch ausliest und neu zurückschreibt (Refresh). Durch die höhere Integration in den 1980er Jahren konnte diese Reffeshlogik preiswert aufgebaut und in den Prozessor integriert werden. Typische Größen Mitte der 1980er waren 64 KBit pro IC, wobei jeweils acht Chips gemeinsam adressiert wurden.

Die Zugriffszeiten der dynamischen RAMs lagen bei preiswertem Aufbau ebenfalls bei einigen 100 Nanosekunden und haben sich seitdem nur wenig verändert, die Größen sind jedoch auf einige GBit pro Chip gewachsen. Die Prozessoren werden heute nicht mehr im Megahertz-, sondern im Gigahertz-Bereich getaktet. Daher werden, um die durchschnittliche Zugriffszeit zu reduzieren, Caches verwendet und sowohl die Taktrate als auch die Breite der Anbindung des Arbeitsspeichers an den Prozessor erhöht (siehe Front Side Bus).

Im Juni 2012 wurde bekannt gegeben, dass mit dem sogenannten Speicherwürfel (eng- lisch Hybrid Memory Cube und kurz HMC genannt) eine neue kleinere und leistungs- starkere Bauform für Arbeitsspeicher entwickelt werden soll, bei der ein Stapel aus mehreren Dies genutzt werden soll. Eigens dafür wurde das Hybrid Memory Cube Konsortium gegründet, dem unter anderem ARM, Hewlett-Packard und Hynix beigetre- ten sind.

Um den physischen Arbeitsspeicher zu erweitern, können moderne Betriebssysteme zu- sätzlichen virtuellen Arbeitsspeicher auf Massenspeichem allozieren (platzieren, zutei- len). Diesen Speicher nennt man auch Swapspeicher.

Um diese Erweiterung transparent zu realisieren, bedient sich das Betriebssystem eines virtuellen Speicherraumes, in dem sowohl der physische als auch der virtuelle Speicher vorhanden sind. Teile dieses virtuellen Speicherraumes - eine oder mehrere Speicher- seiten - werden dabei entweder in das physisch vorhandene RAM oder in den Auslage- rungsspeicher (Swapspace) abgebildet. Die Nutzungsrate der einzelnen Seiten be- stimmt, welche Speicherseiten ausgelagert und nur auf Massenspeichem und welche im schnellen RAM existieren. Diese Funktionen werden von heutigen CPUs unterstützt, wobei die Menge des unterstützten Gesamtspeichers im Laufe der Entwicklung deutlich gestiegen ist.

Der Auslagerungsspeicher stellt eine sehr preiswerte, aber mit extrem schlechter Lei- stung verbundene Erweiterung zum physischen Arbeitsspeicher dar. Ein Missverhältnis zwischen beiden Speicherarten ist an häufigem„Swappen“, also dem Verschieben von Daten zwischen Massen- und physischem Arbeitsspeicher, zu erkennen. Verglichen mit dem Arbeitsspeicher benötigt die Festplatte mit mehreren Millisekunden sehr lange, um die Daten bereitzustellen. Die Zugriffszeit auf den Arbeitsspeicher beträgt dagegen bei nur wenigen Nanosekunden, was einem Millionstel der Festplatte entspricht.

Zugriffe auf den Arbeitsspeicher durch den Hauptprozessor werden zumeist über ein oder mehrere Pufferspeicher oder Cache-RAMs (kurz„Cache“) optimiert. Im Cache hält und benutzt der Rechner die am häufigsten angesprochenen Speicherbereiche, stellvertretend für die originären Hauptspeicherbereiche. Der Cache ist im Verhältnis zu anderen Speichern sehr schnell, da er möglichst direkt am Prozessor angebunden ist (bzw. sich in modernen Prozessoren direkt auf dem Die befindet). Allerdings ist er in der Regel nur wenige Megabyte groß.

Bei geringem Speicherbedarf können Programme oder Teile davon fast ausschließlich im Cache laufen, ohne dass der Hauptspeicher angesprochen werden muss. Der Cache ist als Assoziativspeicher ausgeführt, kann also entscheiden, ob die Daten einer Adresse schon im Cache gespeichert sind oder noch vom Arbeitsspeicher geholt werden müssen. Dann wird ein anderer Teil des Caches aufgegeben. Der Cache wird dabei stets mit mehreren aufeinander folgenden Worten gefüllt, beispielsweise stets mit mindestens 256 Bit (sogenannter Burst-Modus), da es sehr wahrscheinlich ist, dass in Kürze auch Daten vor oder hinter den gerade benötigten gelesen werden sollen.

Die Leistung von Speichermodulen (Takt und Schaltzeitverhalten, englisch Timing) misst sich vor allem in der absoluten Latenz. Die theoretische Bandbreite ist ausschließ- lich beim Burst-Transfer relevant. Ein weit verbreiteter Irrtum ist, dass höhere numerische Timings eine schlechtere Lei- stung zur Folge hätten. Das gilt jedoch nur bei gleichem Takt, da sich die absolute La- tenz aus den Faktoren (effektiver) Takt und Schaltzeitverhalten (Timing) ergibt. Einige Speicherhersteller halten die offiziellen Spezifikationen der JEDEC nicht ein und bieten Module mit höheren Taktraten oder besserem Schaltzeitverhalten (Timings) an. Wäh- rend DDR3-1600 CL9-9-9 einer offiziellen Spezifikation unterliegt, handelt es sich bei DDR2-1066 CL4-4-4-12 um nicht standardkonforme Speichermodule. Diese schnelle- ren Speicher werden oft als Speichermodule für Übertakter bezeichnet. CAS (column access strobe) - latency (CL) Gibt an, wie viele Taktzyklen der Speicher benötigt, um Daten bereitzustellen. Niedrigere Werte bedeuten höhere Speicherleistung.

RAS to CAS Delay (tRCD): Dabei wird über die Abtastsignale„Spalten“ und„Zeilen“ eine bestimmte Speicherzelle lokalisiert, ihr Inhalt kann dann bearbeitet werden (Ausle- sen/Beschreiben). Zwischen der Abfrage„Zeile“ und der Abfrage„Spalte“ befindet sich eine festgelegte Verzögerung => Delay. Niedrigere Werte bedeuten höhere Spei- cherleistung.

RAS (row access strobe) - precharge delay (tRP): Bezeichnet die Zeit, die der Speicher benötigt, um den geforderten Spannungszustand zu liefern. Erst nach Erreichen des ge- wünschten Ladezustandes kann das RAS-Signal gesendet werden. Niedrigere Werte bedeuten höhere Speicherleistung. Row-Active-Time (tRAS): Erlaubte Neuzugriffe nach festgelegter Anzahl von Taktzyklen, setzt sich rein rechnerisch aus CAS + tRP + Sicherheit zusammen.

Command Rate (zu deutsch Befehlsrate): Ist die Latenzzeit, welche bei der Auswahl der einzelnen Speicherchips benötigt wird, genauer gesagt, die Adress- und Command De- code Latency. Die Latenzzeit gibt an, wie lange ein Speicherbank -Adressierungssignal anliegt, bevor die Ansteuerung der Zeilen und Spalten der Speichermatrix geschieht. Typische Werte für DDR- und DDR2-Speichertypen sind 1-2T, meistens wird 2T ge- nutzt. In der Praxis konnten FSB1333-Prozessoren von Intel mit ihrem Front Side Bus maxi- mal lO GiB/s an Daten empfangen. Das wird im üblichen Dual-Channel-Betrieb mit zwei Speicher-Riegeln bereits von DDR2-667 (10,6 GiB/s) ausgereizt.

Aktuelle Prozessoren unterliegen dieser Beschränkung nicht mehr, da hier der Spei- chercontroller nicht mehr in der Northbridge, wie beim Sockel 775 und Vorgängern, sondern direkt auf der CPU verbaut ist. Neben Dual Channel spielt es auch eine Rolle ob der Speicher Dual-Rank unterstützt. Dual-Rank steht für die beidseitige Bestückung der Speicherriegel mit doppelt so vielen aber nur halb so großen Speicherchips. Insbe- sondere CPUs mit interner GPU, wie die AMD-Kaveri-Architektur können von dieser Form der Speicherverschränkung profitieren.

Die klassische Anbindung von physischem Speicher erfolgt über einen (bei Von- Neumann-Architektur) oder mehrere (bei der heute im PC-Bereich nicht mehr verwen- deten Harvard-Architektur bzw. Super-Harvard-Architektur) Speicherbusse. Speicher- busse übertragen Steuerinformationen, Adressinformationen und die eigentlichen Nutz- daten. Eine von vielen Möglichkeiten ist es, für diese unterschiedlichen Informationen getrennte Leitungen zu nutzen und den Datenbus sowohl zum Lesen wie zum Schreiben von Nutzdaten zu verwenden.

Der Datenbus übernimmt dann den eigentlichen Datentransfer. Aktuelle PC- Prozessoren benutzen zwischen zwei und vier 64-Bit-Speicherbusse, die aber seit etwa dem Jahr 2000 keine generischen Speicherbusse mehr sind, sondern direkt die Protokol- le der verwendeten Speicherchips sprechen. Der Adressbus dient zur Auswahl der ange- forderten Speicherzellen; von seiner Busbreite (in Bit) ist die maximal ansprechbare Anzahl von Speicherworten abhängig. An jeder Adresse sind bei heute üblichen Syste- men meist 64 Bit abgelegt (siehe 64-Bit-Architektur), früher wurden auch 32 Bit (Intel 80386), 16 Bit (Intel 8086) und 8 Bit (Intel 8080) verwendet. Viele, aber nicht alle Pro- zessoren unterstützen feiner granuläre Zugriffe, meist auf Byteebene, durch ihrer Art der Interpretation von Adressen (Endianness,„Bitabstand“ von Adressen, misalignte- Zugriffe) auf Software-Ebene wie auch durch das Hardware-Interface (Byte-Enable- Signale, Nummer der niederwertigsten Adressleitung).

Beispiel: Intel 80486 » Adressbus: A31 bis A2, Datenbus: D31 bis DO, Byte-Enable: BE3 bis BEO, Endianness: Little Endian, Unterstützung von misalignten Zugriffen: ja ansprechbarer Speicher: 4 Gi x 8 Bit als 1 Gi x 32 Bit.

Einer der wesentlichen Unterschiede der beiden bei PCs aktuellen Prozessorgeneratio- nen„32-Bit“ und„64-Bit“ ist also der bereits angesprochene maximal ansteuerbare Ar- beitsspeicher, der jedoch zum Teil mit Hilfe von Physical-Address Extension noch et- was über das übliche Maß hinaus erweitert werden kann. Allerdings ist mit der Anzahl der Bits einer Prozessorgeneration im Allgemeinen die Breite des Datenbusses gemeint, die nicht notwendigerweise mit der Breite des Adressbusses übereinstimmt. Allein die Breite des Adressbusses bestimmt jedoch die Größe des Adressraums. Aus diesem Grund konnte beispielsweise der„16-Bit“ -Prozessor 8086 nicht nur 64 KiB (theoreti- scher 16-Bit- Adressbus), sondern 1 MiB (tatsächlicher 20-Bit-Adressbus) adressieren.

Der Bus moderner Computer vom Cache zum Arbeitsspeicher wird schnell ausgeführt, also mit hoher Taktrate und Datenübertragung bei steigender und fallender Taktflanke (DDR: Double Data Rate). Er ist synchron und mit großer Wortbreite, zum Beispiel 64 Bit pro Adresse. Werden mehrere Speichersteckplätze auf der Hauptplatine eines PCs eingesetzt, so werden aufeinander folgende Adressen in verschiedenen Steckplätzen ge- speichert. Das ermöglicht überlappenden Zugriff (Interleaved) bei Burst-Zugriffen.

Innerhalb der Speicherchips werden ganze Adresszeilen in Schieberegistern gespei- chert. Ein 1-MiBit-Chip kann zum Beispiel 1024 Zeilen mit 1024 Bit haben. Beim er- sten Zugriff wird ein schnelles, internes 1024-Bit-Register mit den Daten einer Zeile gefüllt. Bei Burst-Zugriffen sind die Daten der folgenden Adressen dann bereits im Schieberegister und können mit sehr geringer Zugriffszeit von diesem gelesen werden. Sinnvollerweise überträgt man daher nicht nur das angeforderte Bit zum Prozessor, sondern gleich eine sogenannte„Cache-Line“, die heute 512 Bit beträgt (vgl. Prozessor- Cache).

Die größten Speicherchiphersteller sind: Nanya Technology, Hynix Semiconductor, Micron Technology, Promos, Samsung, Toshiba, Winbond, Etron. Diese Hersteller tei- len sich 97 Prozent Marktanteil. Anbieter von Speichermodulen, wie Corsair, Kingston Technology, MDT, OCZ, A-Data usw. (sogenannte Third-Party-Hersteller) kaufen Chips bei den genannten Herstellern und löten diese auf ihre Platinen, wofür sie ein ei- genes Layout entwerfen. Außerdem programmieren sie die SPD-Timings gemäß ihren eigenen Spezifikationen, die durchaus schärfer eingestellt sein können als die der Origi- nalhersteller.

Für Dual-Channel- oder Triple-Channel-Betrieb sollten nach Möglichkeit annähernd baugleiche Module verwendet werden, damit die Firmware (bei PCs das BIOS oder UEFI) den Parallel-Betrieb nicht aufgrund von unvorhersehbaren Inkompatibilitäten verweigert oder das System dadurch instabil läuft. [6] Es ist gängige Praxis, dass ein Hersteller beim selben Produkt im Laufe der Produktion andere Chips auf seine Module lötet bzw. umgekehrt unterschiedliche Hersteller die gleichen Chips verwenden. Da die- se Informationen jedoch in so gut wie allen Fällen nicht zugänglich sind, ist man beim Kauf von Speicher-Kits auf der sicheren Seite - obwohl der Dual-/Triple-Channel- Modus normalerweise auch mit unterschiedlichen Modulen funktioniert.

Als Mittler zwischen den großen Speicherchip- und Modulherstellem einerseits und dem Handel und den Verbrauchern andererseits haben sich in Deutschland Anbieter wie z. B. CompuStocx, CompuRAM, Memory XXL und Kingston etabliert, die für die gän- gigsten Systeme spezifizierte Speichermodule anbieten. Das ist deshalb notwendig, weil einige Systeme durch künstliche Beschränkungen durch den Hersteller nur mit Speicher arbeiten, der proprietäre Spezifikationen erfüllt. 70. ROM

Es folgen weitere Ausfuhrungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens ein ROM enthaltend.

ROM (Read-Only Memory, dt. Festwertspeicher oder auch Nur-Lese-Speicher) ist eine verbreitete Bezeichnung für Speicherabbilder von Speicherchips (EPROM), die in Spie- le-Speichersteckmodulen - auch Cartridges genannt - verbaut wurden; sie enthalten die Dateninformationen des eigentlichen Spiels. Mittels Emulatoren können diese Abbilder auf dem PC verwendet oder mit beschreibbaren Steckmodulen zumeist auch wieder auf der Originalkonsole gespielt werden. Abbilder von Konsolenspielen auf CD oder DVD werden meist ISO oder Image genannt.

Bei Disketten wird von Disk Image gesprochen. Der Besitz und die Verwendung von Emulatoren ist grundsätzlich legal. Einige Emulatoren benötigen zum Ausfuhren der ROMs jedoch das BIOS des jeweiligen Geräts, welche grundsätzlich nicht mit dem Emulator ausgeliefert werden darf. Die Legalität von ROMs bestimmt sich durch ent- sprechende Regelungen durch Gesetze zum Schutz der Urheberrechte. Sofern ROMs nicht vom Rechteinhaber bezogen werden, sind für die Legalität vor allem die Art und die Umstände relevant, unter denen die Kopie entstanden ist. In Deutschland greift § 53 (Vervielfältigungen zum privaten und sonstigen eigenen Gebrauch) des Urheberrechts- gesetzes.

Neben kommerziellen ROMs gibt es auch die Homebrew-Szene, welche sich mit meist unautorisierter Programmierung von Fremdsystemen auseinandersetzt. So gibt es zum Beispiel Programmierer, die unlizenziert auf Konsolen und Handheids entwickeln und deren Produkte als Freeware im Internet verfügbar sind. Rechtlich gesehen ist dies (in Deutschland) nicht illegal, es befindet sich jedoch in einer Grauzone. Die Endprodukte werden oft als ROM verbreitet und können mit entsprechender Hardware oder Emulato- ren gespielt werden. ROM-Hacking ist das Modifizieren von ROMs. Ziel und damit die Faszination vieler ROM-Hacker ist es, ein vorhandenes Videospiel nach eigenen Vorstellungen zu verän- dern, umzugestalten und teilweise neu zu kreieren (oder auch zu übersetzen, sollte das Spiel nicht in der eigenen Landessprache veröffentlicht worden sein). Dazu eignen sich Spiele verschiedener Konsolen als ROM. Besonders beliebt sind Game-Boy-Color- und Game-Boy-Advance- sowie NES- und SNES-Spiele, da sie eine leicht zu modifizieren- de 2D-Grafik und eine relativ einfache Programmierung besitzen. Im Internet findet man für einige Spiele sogar extra Editoren, die z. B. den Aufbau eines neuen Levels oder das Ändern verschiedener physikalischer Eigenschaften wesentlich vereinfachen.

Das bisher meistgehackte ROM-Spiel ist Super Mario World für das SNES. Es ist auf- grund seiner einfachen Programmierung und der Vielzahl an Editoren / Hilfsmittel bei ROM-Hackem sehr beliebt. Veröffentlicht werden derartig veränderte ROMs teilweise als ROM selbst, was jedoch rechtswidrig sein kann, da das ROM teilweise noch altes, urheberrechtlich geschütztes Material beinhaltet. Zudem ist es möglich, nicht das Er- gebnis dieser Veränderungen und somit ein ROM, sondern nur die Veränderungen mit einem Patch zu veröffentlichen. Eine weit verbreitete Art ist dabei der IPS-Patch.

ROM-Hacker bedienen sich verschiedenster Tools, um das Bearbeiten der Spiele einfa- cher zu gestalten. Da die ROMs nur Dateien sind, welche aus Programmcode und ande- ren Daten bestehen und diese meist nicht in gängigen Formaten vorliegen, werden Übersetzungstools benötigt. Grafiken, Musik etc. wären viel zu groß, wenn man sie in den üblichen Formaten speichern würde, deswegen stehen für Grafiken oftmals auch nur eine bestimmte Anzahl an Farben zur Verfügung (Farbpalette). Kompliziertere Än- derungsvorgänge erfordern spezielle Programme, mit welchen dann ganze Karten, Wel- ten, Spielmechaniken etc. verändert werden können. Diese Programme werden von Hobbyprogrammierem zur Verfügung gestellt und können von allen ROM-Hackem verwendet werden.

Verwendet werden also unter anderem: Ein Hexeditor, Grafikprogramme (Tile- Editoren), Entschlüsselungsprogramme (LZ77), Assembler und/oder speziell für be- stimmte Spiele entwickelte Programme. Ein besonders kompliziertes Verfahren ist das ändern des Spielcodes mithilfe von ASM. In der Maschinensprache können nach Belie- ben sämtliche Details geändert werden, allerdings ist es oft sehr schwer, diese Sprache anzuwenden, da sie sehr primitiv ist und man auch den Originalcode verstehen muss, um sie effektiv nutzen zu können. Dazu werden auch Debugger eingesetzt, denn mit ih- nen lässt sich Code Schritt für Schritt verfolgen und der ROM-Hacker weiß genau, worauf er achten muss.

Neben den alten SNES-Videospielen werden auch neuere Spiele in Angriff genommen, um sie entweder gänzlich zu verändern oder Cheats für sog. Cheatmodule zu erstellen (Codehacking). Ein Beispiel dafür ist die Pokemon-Reihe von Gamefreak. Aufgrund der vielseitigen Verwendbarkeit der Spiele lassen sich viele ROM-Hacker auch neue Handlungsabläufe und anderes für die Videospiele einfallen. Eine Vielzahl an Internet - Communities haben sich um das Thema gebildet und widmen sich teilweise ganz dem Thema Pokemon als Alternative zu den alten SNES-Spielen.

Eine besondere Aufmerksamkeit bekommen die Pokemon-Teile für den Game Boy Ad- vance, denn dort wird noch nicht die schwer modifizierbare 3D-Grafik verwendet, son- dern ein auf Tiles basierendes System. Eine Vielzahl an Hilfsprogrammen erleichtert das Modifizieren der Spiele. Auch die im Spiel auftretenden Ereignisse (Events) lassen sich dank einer bereits vom Hersteller des Spiels eingebauten Script -Engine leicht ver- ändern und erlauben es, das Spiel soweit zu verändern, dass das Original nur noch schwer zu erkennen ist.

71. Speicherkarte

Es folgen weitere Ausführungsformen der Erfindung:

Verwendung des elektronischen Elementes (E) wenigstens eine Speicherkarte enthal- tend. Eine Speicherkarte, manchmal auch Flash Card oder Memory Card genannt, ist ein kompaktes, wiederbeschreibbares Speichermedium, auf dem beliebige Daten wie Text, Bilder, Audio und Video gespeichert werden können. Die Daten werden mittels der Flash-Speicher-Technik gespeichert. Verwendet werden sie für kleine, mobile Geräte wie Digitalkameras oder Mobiltelefone, aber auch als Mittel zur Datenportierung zu- sammen mit einem USB-Stick an einem Personal Computer.

Die meisten gegenwärtigen Geräte nutzen die Flash -Technik, obgleich andere Techno- logien entwickelt werden. Es gibt eine Vielzahl von Speicherkarten auf dem Markt:

CompactFlash (CF) Typ I, CompactFlash Typ II, CompactFlash ATA Serial Transfer (CFast) Typ I, CFast Typ II, Memory Stick (MS), Memory Stick Select, Memory Stick- ROM, Memory Stick PRO, Memory Stick Duo, Memory Stick PRO Duo, Memory Stick PRO-HG Duo, Memory Stick XC Duo, Memory Stick XC-HG, Memory Stick Micro (M2), Memory Stick HG Micro (M2-HG), Memory Stick XC Micro (M2 XC), Memory Stick XC-HG Micro (M2 XC-HG), Multimedia Card (MMC), RS-MMC, MMCmobile, MMCmicro, Secure Digital Memory Card (SD), SDHC, SDXC, miniSD, miniSDHC, T-Flash / TransFlash, microSD, microSDHC, microSDXC, Smart Media (SM) / Solid State Floppy Disc Card (SSFDC) wird nicht mehr hergestellt, xD-Picture Card (xD), XQD

Weitere Speichermedien, die zu den steckbaren Flash-Speichermedien gehören, sind Sony SxS (ExpressCard-basiert) und Panasonic P2 (PCMCIA -basiert).

Keine Speicherkarte im eigentlichen Sinne, aber aufgrund ähnlicher Anwendung und Aufbau hier mit aufgeführt ist der USB-Stick. Es gibt auch Kompakt- Speicherkartenlesegeräte (ohne eigenen Speicher) mit einem eigenen Steckplatz für bei- spielsweise eine Micro-SD-Karte, so dass sie als Adapter von der Steckemorm dieser Karten auf USB dienen. Die Flash-Speicherkarten sind von unterschiedlicher Größe, wobei die Speicherkapazi- tät in der Regel direkt dem Preis entspricht. Die CompactFlash -Karte ist in etwa so groß wie ein Streichholzbriefchen, während die MultiMedia-Card (MMC) und die SD-Card so groß wie eine Briefmarke sind. Neuere Entwicklungen sind nur noch so groß wie ein Fingernagel. 2009 kamen Speicherkarten mit 64 Gigabyte regulär in den Handel.

Seit 2010 bieten Sony (ehemals ausschließlich Memory Stick) und Olympus (ehemals ausschließlich xD-Card und davor SmartMedia-Card) in ihren neuen Modellen zusätz- lich SD-Card Slots an. Damit neigt sich der Formatkrieg bei Speicherkarten der SD- Card zu.

Die Übertragungsgeschwindigkeit von Speicherkarten wird meist nicht direkt angege- ben, sondern als Faktor auf Basis der Lesegeschwindigkeit von CDs (= ca. 150 kB/s für die ursprünglichen Single-Speed- oder 1 x -Laufwerke). Diese Schreibweise hat sich ausgehend von CD-Brennern auch für andere beschreibbare Speichermedien verbreitet. Beispiel: SD card 50x = ca. 7,5 MB/s Übertragungsgeschwindigkeit. Die Begriffe High Speed oder HyperSpeed etc. unterliegen keiner Normung, so dass es nicht möglich ist zu sagen, dass eine HighSpeed Karte sehr schnell sein muss. Hinzu kommt, dass die Messmethoden für Geschwindigkeiten nicht genormt sind. So lassen sich mit wenigen großen Dateien exorbitante Schreibwerte ermitteln, die bei vielen kleinen Dateien keine Relevanz haben.

Beim Vergleich der X-Geschwindigkeitsfaktoren von Flashspeicherkarten verschiede- ner Hersteller ist jedoch zu beachten, dass die einzelnen Hersteller diese Geschwindig- keit unterschiedlich oder überhaupt nicht definieren. Einige Definitionen beschreiben den X-Faktor auf Basis der Schreibgeschwindigkeit, andere auf Basis der Lesege- schwindigkeit. Wieder andere sprechen von der Datenübertragungsgeschwindigkeit und meinen damit sowohl Lese- als auch Schreibgeschwindigkeit.

Bei namhaften Herstellern findet man Datenblätter, die die Geschwindigkeitsbezeich- nung genauer definieren. Speicherkarten werden hier hauptsächlich dazu benutzt, Spiel- stände (Savegames) abzuspeichern. Hersteller von Spielkonsolen halten sich meist nicht an Standards für Speicherkarten, daher hat jedes Spielkonsolensystem ein eigenes Spei- cherkartenformat, und sei es auch nur von der Bauform her. Die proprietären Formate sollen den Verkauf des Originalzubehörs fördern; es gibt allerdings in der Regel auch Speicherkarten von Fremdherstellem, die oft auch mehr Speicher zur Verfügung stellen. Seit der Einführung der Xbox im Jahre 2001 besitzen immer mehr Videospielkonsolen, wie die Spielekonsolen Wii, Xbox 360 und Playstation 3, neben herkömmlichen Spei- cherkarten auch integrierten Speicher in Form einer Festplatte oder Flashspeicher.

Die Speicherkarte wird meistens an der Konsole eingesteckt (zum Beispiel bei den Pro- dukten Neo Geo, Sega Saturn, Playstation, Playstation 2 und Nintendo GameCube). Bei der Dreamcast wird die Speicherkarte (hier VMU genannt) genau so wie bei der von Microsoft entwickelten Xbox und dem Nintendo 64 allerdings am Gamepad ange- bracht beziehungsweise eingesteckt.

72. EEPROM

Es folgen weitere Ausftihrungsformen der Erfindung:

Verwendung des elektronischen Elementes (E) wenigstens eine EEPROM enthaltend.

Ein EEPROM (engl. Abk. für electrically erasable programmable read-only memory, wörtlich: elektrisch löschbarer programmierbarer Nur-Lese-Speicher, auch E2PROM) ist ein nichtflüchtiger, elektronischer Speicherbaustein, dessen gespeicherte Information elektrisch gelöscht werden kann. Er ist verwandt mit anderen löschbaren Speichern, wie dem durch UV-Licht löschbaren EPROMs und dem ebenfalls elektrisch löschbaren Flash-Speicher. Er wird verwendet zur Speicherung kleinerer Datenmengen in elektri- schen Geräten, bei denen die Information auch ohne anliegende Versorgungsspannung erhalten bleiben muss oder bei denen einzelne Speicherelemente bzw. Datenworte ein- fach zu ändern sein müssen. Ein typisches Beispiel ist der Rufnummemspeicher eines Telefons. Zur Speicherung größerer Datenmengen wie z. B. dem BIOS in PC-Systemen sind meist Flash-Speicher ökonomischer. Der Ausdruck "EEPROM" beschreibt lediglich die Eigenschaften des Speichers, dass dieser nicht-flüchtig ist und allein mit elektrischer Energie gelöscht werden kann (im Gegensatz zu dem nur durch UV-Licht löschbaren EPROM). Der Ausdruck "EEPROM" umfasst deshalb genau genommen die heute üblicherweise als EEPROM bezeichneten wort- oder byteweise löschbaren Speicher, als auch die neueren blockwei- se löschbaren Flashspeicher. Da bei letzteren die sonst pro Speicherzelle notwendigen Schreib-, Lese- und Löschtransistoren entfallen können, ist mit ihnen eine deutliche hö- here Speicherdichte erreichbar.

Ein EEPROM besteht aus einer Matrix aus Feldeffekttransistoren (FETs) mit isoliertem Steueranschluss (Floating Gate), in der jeder dieser FETs ein Bit repräsentiert. Beim Programmiervorgang wird auf das Floating Gate eine Ladung eingebracht, die nur durch den Löschvorgang wieder entfernt werden kann. Im Normalbetrieb bleibt die La- dung auf dem vollständig isolierten Gate erhalten.

Bei (UV-löschbaren) EPROMs wird beim Schreiben die Ladung durch Injektion heißer Ladungsträger (engl hot-carrier injection, HCl) auf das Gate gebracht und kann nur durch Bestrahlung mit UV-Licht wieder entfernt werden. Bei EEPROMs wird sowohl beim Schreiben als auch Löschen die Ladung durch Fowler-Nordheim-Tunneln auf das isolierte Gate aufgebracht bzw. von diesem entfernt.

Beim Flash-Speicher hingegen wird die Ladung beim Schreiben durch HCl auf das Ga- te aufgebracht und beim Löschen durch Fowler-Nordheim-Tunneln wieder entfernt.

Zum Programmieren des EEPROMs wird ein hoher Spannungspuls an das Control Gate gelegt, wobei ein Tunnelstrom von diesem durch das isolierende Dielektrikum auf das Floating Gate fließt. Diese hohe Spannung musste bei EPROMs von außen an den Speicherbaustein angelegt werden, während sie beim EEPROM, und auch bei den Flash-Speichem, baustein-intern erzeugt wird.

Nach dem Schreiben des Speichers, d. h. dem selektiven Aufbringen von Ladung auf die Floating Gates, werden die geschriebenen Daten durch ein Bitmuster gelade- ner/ungeladener Gates repräsentiert. Diese Daten lassen sich nun über die Drain- Source-Anschlüsse der Transistoren beliebig oft auslesen, wobei die normale Betriebs- spannung beim Lesen weit unterhalb der Programmierspannung liegt. Die Anzahl der möglichen Schreibvorgänge der einzelnen Speicherzellen ist allerdings begrenzt, die Hersteller garantieren üblicherweise einige 10.000 bis über 1.000.000 Schreibzyklen. Dieses wird zum Teil durch redundante Speicherzellen erreicht.

EEPROMs können im Unterschied zu Flash-EEPROMs byteweise beschrieben und ge- löscht werden. Im Vergleich zu Flash-EEPROMs, die zwischen 1 ps und 1 ms für einen Schreibzyklus benötigen, sind herkömmliche EEPROMs mit 1 ms bis 10 ms erheblich langsamer. EEPROMs verwendet man deshalb bevorzugt, wenn einzelne Datenbytes in größeren Zeitabständen verändert und netzausfallsicher gespeichert werden müssen, wie zum Beispiel bei Konfigurationsdaten oder Betriebsstundenzählem.

Als Ersatz für die früher als Programm- oder Tabellenspeicher dienenden ROMs oder EPROMs eignete sich das EEPROM aufgrund der deutlich höheren Herstellungskosten nicht, diese Rolle wurde später durch die Flash-Speicher übernommen. Die höheren Kosten der EEPROM-Technologie führten dazu, dass zunächst eigenständige EEPROM-Bausteine zumeist über ein serielles Interface an die Mikrocontroller ange- schlossen wurden. Später wurden dann bei etlichen Mikrocontrollem auch On-Chip- EEPROMs angeboten. Da Mikrocontroller heute meist sowieso in robusten Flashtech- nologien hergestellt werden, die ein häufigeres Löschen und Programmieren erlauben, kann meist auch ein Bereich des Flash-Speichers für veränderliche Daten verwendet werden. Dazu wird ein Teilbereich des Flashspeichers reserviert und z. T. mit speziellen Algorithmen beschrieben und gelesen. Dabei muss ein Block (eine Page) vor der Lö- schung, ebenso wie der gesamte reservierte Bereich, erst komplett ausgenutzt sein, be- vor er (sie) neu beschrieben wird. Dieses Verfahren macht in vielen Fällen das EEPROM in Mikrocontrollem überflüssig.

Allerdings lässt sich ein EEPROM nicht in allen Anwendungen durch Flash ersetzen: Zum einen ist es z. Z. noch nicht möglich, Flash über einen so weiten Temperaturbe- reich wie EEPROMs zuverlässig zu beschreiben. Allerdings macht hier die Prozess- technik Fortschritte und Temperaturkompensation beim Schreiben verbessert das Ver- halten.

Zum anderen kann es in bestimmten Anwendungen problematisch sein, wenn eine Page gelöscht werden soll, aber wegen der EEPROM-Emulation mittels Flash nicht sofort gelöscht werden kann, und es damit nicht feststeht, wann die Page gelöscht werden wird (was aber umgangen werden könnte, indem die Page eben, wenn sie gelöscht wer- den soll, zuerst absichtlich / gezielt vollgeschrieben wird).

Neben Bausteinen mit parallel herausgefuhrten Adress- und Datenbussen gibt es auch EEPROMs in Gehäusen mit z. B. nur 8 Anschlüssen, bei denen Adressen und Daten über einen seriellen Bus wie PC ausgetauscht werden. Derartige EEPROMs werden z. B. auf SDRAM-Modulen vom Hersteller zur Speicherung von Produktparametem verwendet, die dann von der CPU ausgelesen werden können. Mit dieser Information im SPD-EEPROM können die Speichermodule im PC dann automatisch konfiguriert werden.

In EEPROMs gespeicherte Daten können von drei Arten von Ausfallerscheinungen be- troffen sein:

-dem ungewollten Überschreiben benachbarter Speicherzellen, wenn eine Speicherzelle geändert wird (bezeichnet als "write disturb"),

-dem begrenzten Erhaltungsvermögen des Speicherzustands der einzelnen Speicher- plätze im EEPROM ("retention") und

-der begrenzten Lebensdauer bzw. Beschreibbarkeit ("byte endurance").

In der Oxidschicht des Gates der in EEPROMs eingesetzten Floating-Gate-Transistoren sammeln sich eingefangene Elektronen an. Das elektrische Feld der eingefangenen Elektronen summiert sich zu dem Feld des Floating Gates und schmälert so das Fenster zwischen den Schwellenspannungen, die für die Speicherzustände Eins bzw. Null ste- hen. Nach einer bestimmten Anzahl von Schreibvorgängen wird die Differenz zu klein, um unterscheidbar zu bleiben, und die Speicherstelle bleibt dauerhaft auf dem pro- grammierten Wert stehen. Hersteller geben üblicherweise die maximale Anzahl von Schreibvorgängen mit 106 oder mehr an.

Die während der Speicherung in das Floating Gate eingebrachten Elektronen können durch die Isolierschicht lecken, dies vor allem bei erhöhten Temperaturen (z. B. 170...180 °C), dadurch einen Verlust des Ladungszustands verursachen und die Spei- cherstelle so in den gelöschten Zustand zurückversetzen. Hersteller gewährleisten übli- cherweise die Beständigkeit gespeicherter Daten für einen Zeitraum von 10 Jahren. Beim Beschreiben von Speicherzellen wird der Inhalt benachbarter Zellen dann verän- dert, wenn nach der letzten Änderung der Nachbarzelle insgesamt eine Anzahl von Schreibvorgängen auf dem Chip erfolgte (z. B. Zelle 0x0000 geändert, Zelle 0x0001 aktuell nicht geändert und nach der letzten Änderung von 0x0001 bisher an beliebiger Stelle insgesamt 1 Mio. Schreibvorgänge insgesamt , dann droht Gefahr von Datenver- lust auf Zelle 0x0001). Somit kann die Angabe für "write disturb" zehnmal größer sein als die Angabe für "byte endurance". Kurz bevor "write disturb" erreicht wird, sollte ein Refresh des gesamten EEPROM erfolgen. Es wird jede Speicherzelle einzeln gelesen und neu beschrieben. Möglich ist auch, erst zu lesen dann zu löschen und danach neu zu schreiben.

73. Integrierter Schaltkreis (IC)

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E), wenigstens einen integrierten Schaltkreis enthaltend.

Ein integrierter Schaltkreis, auch integrierte Schaltung (englisch integrated circuit, kurz IC; die Buchstaben werden einzeln gesprochen: [?i:] [tse:] bzw. veraltet IS) ist eine auf einem dünnen, meist einige Millimeter großen Plättchen aus Halbleiter-Material aufge- brachte elektronische Schaltung. Sie wird manchmal auch als Festkörperschaltkreis oder monolithischer Schaltkreis (englisch solid-state circuit bzw. monolithic integrated circuit) bezeichnet. Dieser Chip (englisch Die) ist meist zum Schutz und zur einfache- ren Kontaktierung in einem mehrfach größeren Chipgehäuse eingekapselt. Ein IC ent- hält typischerweise eine Kombination von zahlreichen miteinander elektrisch verbun- denen elektronischen Halbleiterbauelementen wie Transistoren, Dioden und/oder weite- ren aktiven und passiven Bauelementen.

Beispiele: Mikroprozessor Intel i486DX2 (1992): Das geöffnete Gehäuse des ICs zeigt das 76 mm 2 große Halbleiter-Plättchen mit 1,2 Millionen Transistoren. Der zentrale rechteckige Bereich ist die eigentliche elektronische Schaltung, an deren Seiten die An- schlussleitungen zur Verdrahtung zu den Pins des Gehäuses angeordnet sind. Durch un- terschiedliche Helligkeiten sind Funktionseinheiten wie Rechenwerk und Cache des Prozessors zu erkennen. Ein ungeöffneter IC: Unten ist ein Teil der 168 Pins zu sehen, die im Betrieb im Prozessorsockel auf der Hauptplatine eines PCs stecken. Aktuelle Prozessor-Chips umfassen bei ähnlichen Abmessungen mittlerweile etwa 4000 Mal so viele Transistoren.

Integrierte Schaltkreise können heutzutage Schaltungen mit vielen Milliarden elektroni- schen Bauelementen (insbesondere Transistoren) umfassen, so dass auch hochkomplexe Schaltungen wie Mikroprozessoren und Speicherchips auf wenige Quadratmillimeter kleinen Halbleiterplättchen untergebracht werden können. Seit Anfang der 1990er Jahre werden die Mikrostrukturen dieser Elemente schon im Nanometer-Bereich gefertigt. Die rechteckigen Halbleiterplättchen werden Chip genannt (auch schon im Rohzu- stand), insbesondere zusammen mit dem aufgebrachten elektronischen Schaltkreis auch Mikrochip.

Die Herstellung von ICs erfolgt in eigenen Halbleiter-Fabriken in absolut staubfreien Reinräumen und umfasst eine Vielzahl von Prozessschritten physikalischer und chemi- scher Art. Da generell die Leistungsfähigkeit von Mikroprozessoren und Speicherchips mit kleiner werdenden Strukturen auf dem Chip zunimmt, bewegt sich deren Miniaturi- sierung oft an der Grenze des technisch und physikalisch machbaren. Es existieren je- doch auch zahlreiche, insbesondere standardisierte ICs wie Logikbausteine und Opera- tionsverstärker, wo dies nur eine geringe Rolle spielt - so enthalten die Logik-Chips der weit verbreiteten, bereits seit den 1970em hergestellten 74xx-Serie nur eine Anzahl Transistoren im ein- oder zweistelligen Bereich.

Umgangssprachlich wird inzwischen Mikrochip bzw. Chip teilweise mit einem IC gleichgesetzt, obwohl der Chip nur das„Innenleben“ eines Schaltkreises darstellt, also das englisch als Die bezeichnete Halbleiterplättchen mit der eigentlichen Schaltung dar- auf. Abzugrenzen von integrierten Schaltkreisen sind außerdem Doppel-, Dreifach- oder weitere Mehrfach-Bauelemente (unabhängig ob als Halbleiter-Bauelement oder Röhre), die sich jeweils in einem gemeinsamen Gehäuse oder Glaskolben wie Doppel- Dioden, -Trioden, -Pentoden, Doppel- bzw. Dreifach-Darlington-Transistoren usw. be- finden.

Vor der Entwicklung integrierter Schaltungen gab es aktive elektronische Bauelemente, die zusammen mit mehreren passiven fest verdrahtet und in einem Gehäuse ausgeliefert wurden. Ein Beispiel waren die Mitte der 1920er Jahre entwickelten Elektronen- bzw. Vakuumröhren 3NF und 2HF - erstere eine Dreifachröhre, ähnlich der späteren Dop- pel-Triode ECC83. Im Unterschied zu der jüngeren Röhre waren bei beiden 1920er- Röhren, wie in einem IC, jedoch zusätzlich bereits im Inneren des Kolbens der Röhre vier bzw. zwei Widerstände und zwei oder ein Kondensator eingearbeitet. Daraus resul- tierten fertige Radio-Schaltungen - die 3NF als Basisschaltung zum Ortsempfang und Verstärkung und die 2HF zusätzlich zum optionalen Fernempfang, bei denen lediglich die Außenkomponenten zur Senderwahl, Spannungsversorgungen und Wiedergabe (Lautsprecher oder Kopfhörer) sowie die Antenne angeschlossen werden mussten.

Bis Ende der 1950er Jahre wurden elektronische Schaltungen mit diskreten Bauteilen aufgebaut, d. h. mit einzelnen Transistoren, Dioden etc., die auf einer Leiterplatte zu ei- ner Schaltung zusammengefügt wurden, vgl. Integration (Technik). Dies war hinsicht- lich Größe und Lebensdauer bereits ein wesentlicher Durchbruch gegenüber den damals konkurrierenden Elektronenröhren. Zwar gab es schon vor der Erfindung des Transistors elektronische Bauelemente, die mehrere Funktionen in einem Bauteil integrierten, in Form von Mehrsystemröhren, Verbundröhren wie der 3NF, Duodioden oder auch mehranodigen Quecksilberdampf- gleichrichtern, die in einem Bauteil die Funktion mehrerer gesteuerter oder ungesteuer- ter Gleichrichter (eine Kathode und mehrere Anoden) vereinten. Transistoren weisen gegenüber den Vakuumröhren entscheidende Vorteile auf, z. B. geringere Leistungs- aufnahme und Größe. Mit der Anwendung von Leiterplatten bzw. Platinen und der dar- aus resultierenden Verkleinerung der Produkte begann diese neuere Technik die frühen röhrenbasierten integrierten Systeme zu verdrängen. Dieser Trend verstärkte sich mit der Entwicklung und dem massiven Einsatz von integrierten Schaltungen ab den 1960er Jahren vollends.

Kaum bekannt ist der bereits 1949 von Werner Jacobi erfundene und patentierte„Halb- leiterverstärker“, eine Schaltung aus fünf Transistoren auf einem als Trägermaterial dienenden Halbleiter. Diese bilden eine dreistufige Verstärkerschaltung in Form eines integrierten Schaltkreises. Zwei Transistoren werden„über Kopf' geschaltet und be- wirken damit die Impedanzwandlung zwischen den Transistorstufen. Jacobi hielt fest, dass damit zum Beispiel Hörgeräte klein, leicht und billig realisiert werden können.

Eine umgehende wirtschaftliche Nutzung seines Patentes ist nicht bekannt. Die Formu- lierung des Integrationsgedankens in der am 15. Mai 1952 bekannt gemachten Patent- schrift lautet:„Halbleiterverstärker, dadurch gekennzeichnet, daß auf den Halbleiter mehrere in verschiedenen Schalt- bzw. Verstärker stufen wirkende Elektrodensysteme aufgesetzt werden.“ Damit geht zum Beispiel die Integration mehrerer Leuchtdioden in ein Gehäuse im Grundgedanken auf Jacobi zurück.

Der erste integrierte Schaltkreis (ein Flipflop) wurde im September 1958 von Jack Kilby entwickelt. Er bestand aus zwei Bipolartransistoren, welche auf einem Germani- um-Substrat befestigt und durch Golddrähte verbunden wurden. Dieser Hybrid- Schaltkreis ist somit ein erstes Beispiel der Umsetzung der schon bekannten Transistor- Transistor-Logik (TTL) auf einen Schaltkreis. Sie war eine Vorstufe zur Weiterent- wicklung der TTL-Schaltungen hin zu kleineren Bauformen.

Den ersten„monolithischen“, d. h. aus bzw. in einem einzigen einkristallinen Substrat gefertigten, integrierten Schaltkreis meldete Robert Noyce im Juli 1959 zum Patent an. Das Entscheidende an der Erfindung von Noyce war die komplette Fertigung der Bau- elemente einschließlich Verdrahtung auf einem Substrat. Für die Flerstellung wurden bereits fotolithografische Verfahren und Diffüsionsprozesse genutzt, die Fairchild Se- rn iconductor kurz zuvor für die Herstellung des ersten modernen Diffusions- Bipolartransistors entwickelt hatte. Unter anderem auf diesen Techniken basierend wurden 1970/71 nahezu gleichzeitig die ersten Mikroprozessoren von drei Firmen vor- gestellt: der Intel 4004, der Texas Instruments (TI) TMS 1000 und der Garrett AiRese- arch„Central Air Data Computer“ (CADC).

Die ersten integrierten Schaltkreise in Serienproduktion entstanden Anfang der 1960er Jahre (vor allem bei Texas Instruments und Fairchild Semiconductor). Sie bestanden le- diglich aus bis zu wenigen Dutzend Bipolar-Transistoren (englisch small-scale Integra- tion, SSI), typischerweise in RTL-Technik. Mit den Jahren wurden die Bauelemente je- doch immer weiter verkleinert, passive Bauelemente wie Widerstände integriert sowie die Komplexität der integrierten Schaltkreise gesteigert. Damit erhöhte sich auch die Anzahl der Transistoren pro Chip beziehungsweise pro Flächeneinheit; dabei war die Anzahl der Transistoren die wichtigste Kenngröße von ICs.

Ein fördernder Faktor für die Weiterentwicklung waren die Rüstungsindustrie und die Raumfahrt. Bis Mitte der 1960er Jahre war die US-Regierung Hauptabnehmer integrier- ter Schaltkreise. Ziel war die Miniaturisierung der Technik beider Bereiche. Ab 1965 erfolgte die Ausrüstung des Gemini-Programms mit Bord-Computern auf Basis von ICs.

Mit der medium-scale Integration (MSI) fanden einige hundert Transistoren, bei der large-scale Integration (LSI) Anfang der 1970er einige tausend Transistoren Platz auf einem Chip. Damit war es erstmals möglich, einen ganzen Hauptprozessor (CPU) als sogenannten Mikroprozessor auf einem Chip zu integrieren, was die Kosten für Compu- ter extrem reduzierte. Anfang der 1980er folgte die very-large-scale Integration (VLSI) mit einigen hunderttausend Transistoren, mittels derer man schon bald Speicherchips (RAM) mit einer Kapazität von 256 KiBit und 1 MiBit herstellen konnte. Mit dieser Weiterentwicklung der Fertigungstechnologie ging eine immer höhere Entwurfsauto- matisierung (siehe Chipentwurf) des Designs und der zur Fertigung erforderlichen Fo- tomasken einher, ohne die eine Entwicklung komplexerer Schaltungen nicht mehr mög- lich war.

Im Jahr 2010 enthielten Grafik-Prozessoren bis zu drei Milliarden Transistoren (siehe Nvidia Tesla),„normale“ General -Purpose-CPUs bis zu 1,17 Milliarden Transistoren (Intel Core Ϊ7-980C). Der Itanium 2 Tukwila besteht aus 2,05 Milliarden Transistoren. Mittlerweile sind Grafikprozessoren bei Transistorzahlen von über acht Milliarden Transistoren angelangt (Nvidia GTX TitanX). Noch größere Zahlen werden bei Spei- cherbausteinen erreicht, bei allerdings geringerer Komplexität des gesamten Chips.

Das Hauptmerkmal von integrierten Schaltungen ist eine große Zahl an verschiedenar- tigen oder gleichen aktiven und passiven Bauelementen - zu letzteren gehören Wider- stände und Kondensatoren - sowie verbindenden Leiterzügen auf oder in einem einkri- stallinen Substrat. Damit bilden sie das Pendant zu Schaltkreisen aus auf einer Leiter- platte gelöteten einzelnen (diskreten) Bauelementen.

Eine Zwischenstellung nehmen Dickschicht- und Dünnschichtschaltungen - wobei Bauteile durch Aufdampfen und Strukturieren einer dünnen Schicht auf einem Glassub- strat hergestellt werden - sowie (Hybridschaltkreise) ein. Es gibt eine Reihe weiterer Unterscheidungen:

Nach der Fertigungstechnologie: monolithische Schaltkreise: es werden alle Bauele- mente auf einem einzigen Stück (Substrat) einkristallinen Halbleitermaterials (Chip) hergestellt; die Schaltkreise werden dabei meist durch Dotierung oder Epitaxie an der Oberfläche des Substratmaterials (Dioden, Transistoren, bis zu einigen Mikrometern ober- und unterhalb der ursprünglichen Oberfläche) oder durch Schichtauftrag (Wider- stände, Leiterzüge, Kondensatoren, Isolationen, Gates von MOSFET, Epitaxie) gefer- tigt.Technologie-Beispiele: TTL-, CMOS-, CCD-, BiCMOS-, DMOS-, BiFET-, Bipo- lar-Technologie.

Dünnschicht-Schaltkreise sind Bauelemente, die durch Bedampfen auf einem Glassub- strat hergestellt werden. Es handelt sich meist um Widerstands-Netzwerke. Sie können durch Elektronenstrahlabgleich auch in höchster Genauigkeit gefertigt werden. Sie sind durch Tauchlackierung geschützt. Ebenfalls in diese Gruppe gehören Schaltungen aus Dünnschichttransistoren (TFT), wie sie z. B. in Flachbildschirmen Anwendung finden. Dickschicht-Hybridschaltkreise vereinen mehrere monolithische Chips sowie gedruckte Leiterzüge und passive Bauteile (fast nur Widerstände) in Dickschicht-Technologie meist auf einem Keramikträger; sie sind oft tauchlackiert.

Nach der Signalart: Digitale ICs verarbeiten oder speichern Signale, die in Form von wenigen diskreten Pegeln vorliegen.Analoge (Linear-) ICs verarbeiten Signale mit be- liebigen Zwischen werten. Mixed-Signal-ICs haben sowohl analoge als auch digitale Schaltungsteile. Sensor- und Aktor-ICs sind Wandler zwischen unterschiedlichen phy- sikalischen Größen, die mit mikroelektronischen Technologien gefertigt werden. Bei- spiele sind ICs in CMOS-Kameras, Mikrospiegelaktoren, Hallsonden, Beschleuni- gungssensoren oder Schaltkreise zur Messung ihrer Temperatur, der Beleuchtungsstär- ke oder zum Empfang digitaler Infrarot-Signale.

Nach der Aufgabe: Prozessoren dienen als Rechen- und Steuereinheiten von Computern Halbleiterspeicher speichern digitale Daten.Miniaturisierte Chips im Rahmen der RFID-Technologie zur kontaktlosen Identifikation von Gegenständen und Lebewesen Standard-Logik-ICs verschiedener Logikfamilien bieten anwendungsübergreifende Funktionen.ASICs sind anwendungsspezifische Entwicklungen (z. B. in Toastern, im Kfz, in Waschmaschinen) ASSPs sind anwendungsspezifische Standardprodukte, die ähnlich wie ASICs Spezialanwendungen haben, aber vom Hersteller angeboten werden und nicht auf Wunsch des Kunden gebaut werden. Sensor-ICs wandeln und verarbeiten nichtelektrische Größen (z. B. Beschleunigung, Licht, Magnetfelder). DSPs (digitale Signalprozessoren) verarbeiten digitale Signale oder analoge Signale in digitaler Form D/A- und A/D-Wandler wandeln digitale in analoge Werte oder umgekehrt. FPGAs (engl field programmable gate array) sind vom Kunden konfigurierbare digitale ICs, die aus einer Vielzahl von zusammenschaltbaren Funktionseinheiten bestehen.

Mikrocontroller (pC) enthalten alle Teile eines kleinen Computers (Programmspeicher, Rechenwerk, Arbeitsspeicher und Register) Leistungs-ICs können hohe Ströme und Spannungen verarbeiten (z. B. als komplette Leistungs-Verstärker oder in Netzteilen) System-on-a-Chip (SoC) sind größere Systeme, die auf einem Chip vereint werden.

Die Fertigung von integrierten Schaltungen erfolgt vollständig auf Wafern (einkristalline Halbleiterscheibe), man spricht daher auch von einer„monolithischen Fertigung“ oder„monolithischen Integration“. Dabei werden auf einem 300-mm-Wafer zwischen ca. 80 (bei sehr großen Prozessoren meist mit größerem Cache, z. B. Intel Tukwila) und mehr als Zehntausend (bei Einzeltransistoren, einfachen Schaltungen, LEDs, Photodioden etc.) meist identische integrierte Schaltkreise parallel hergestellt, was unter anderem die Herstellungskosten senkt.

Der Fertigungsprozess kann (neben Funktionstests) in drei grundlegende Abschnitte eingeteilt werden:

-Die Substratherstellung, dazu gehört die Auffeinigung des Ausgangsmaterials, Herstel- lung von großen Einkristallen (sog. Ingots) und Einzelsubstraten (Wafern)

-Die Herstellung der einzelnen Bauelemente auf einem Wafer, das sogenannte Front- End. Dieser Schritt lässt sich nochmals unterteilen in:

-Front-End-of-Line (engl front-end of line, FEOL, dt. , vorderes Ende der Produktions- linie ): Hier werden die (aktiven) Bauelemente wie Transistoren, Dioden oder Konden- satoren durch die Bearbeitung des Substratmaterials hergestellt.

-Back-End-of-Line (engl back-end of line, BEOL, dt. , hinteres Ende der Produktionsli- nie 1 ): Dieser Schritt umfasst im Wesentlichen die sogenannte Metallisierung, bei der die im FEOL gefertigten Bauelemente miteinander verbunden werden, und die abschlie- ßende Passivierung der Oberfläche.

Das Zerteilen der Wafer in Einzelchips und deren Verpacken in Gehäuse, das soge- nannte Back-End (nicht zu verwechseln mit Back-End-of-Line). Eine„hybride Integra- tion“ (Hybridtechnik) - eine Kombination von Bauelementen aus unterschiedlichen Werkstoffen und Fertigungsprozessen, wie der Dünn- und Dickfilmtechnik - wie sie unter anderem bei der Herstellung von Mikrosystemen genutzt wird, findet bei der Her- stellung von integrierten Schaltkreisen bislang keine Anwendung. Ein vergleichbarer Aufbau, der 3D-Integration, bei dem mehrere Chips übereinandergestapelt und elek- trisch miteinander verbunden werden, könnte aber in zukünftigen ICs Verwendung fin- den, vgl. Multi-Chip-Modul.

Substratherstellung : Das Grundmaterial (Substrat) dient in der Regel sowohl als Träger als auch als Basismaterial für die aktiven Gebiete von Dioden und Transistoren. Mehr als 99 Prozent der integrierten Schaltkreise nutzen Silicium als Substratmaterial. Für sehr hochfrequente oder optische Anwendungen kommen auch andere Materialien wie Galliumarsenid zum Einsatz. Für spezielle Anwendungen werden Silicon-on-Insulator- Substrate (SOI-Substrate) oder Silicium auf dem isolierenden Substrat wie Saphir ver- wendet (engl. Silicon-on-Sapphire, SOS).

Damit die hohen Anforderungen der Mikroelektronik erfüllt werden können, muss das Substrat in Form von hochreinen Einkristallen hergestellt werden. Im Falle des Silici- ums wird zunächst aus einer hochreinen Siliciumschmelze (vgl. Gewinnung von Reinsi- licium) ein einkristalliner Zylinder (Ingot) gezogen. Dazu wird vornehmlich das soge- nannte Czochralski-Verfahren (CZ-Verfahren) genutzt. Ein alternatives Verfahren ist das Zonenschmelzen, was auch zur weiteren Reinigung der CZ-Ingots eingesetzt wer- den kann; für einige Spezialanwendungen sind höhere Reinheitsgrade notwendig als ein Fremdatom auf 109 Atomen der CZ-Ingots. Die Ingots werden in 0,5 bis 1,5 mm dünne Scheiben, die sog. Wafer, zersägt. Die heute (2016) in der Massenproduktion verwen- deten Siliciumwafer haben Durchmesser von 150, 200 oder 300 mm (auch 6, 8 oder 12 Zoll bezeichnet), während sich Wafer von 450 mm noch in der Einführungsphase be- finden. Sie erhalten durch verschiedene Ätz-, Schleif- und Polierprozesse eine nahezu perfekte ebene Oberfläche mit Unebenheiten in der Größenordnung kleiner einem Na- nometer, das heißt nur wenigen Atomlagen.

Bei der Fertigung von integrierten Schaltkreisen werden alle Arbeitsschritte vor dem Zerteilen des Wafers unter dem Begriff Front -End (dt. etwa vorderer/erster Abschnitt) zusammengefasst. Sie erfolgt in Reinräumen, mit einer sehr geringen Dichte von Staubpartikeln. Dies ist nötig, weil selbst kleinste Partikel (< 0,1 mm) bereits den Aus- fall eines kompletten Schaltkreises verursachen können.

Die eingesetzten Prozesse und Verfahren lassen sich grob in folgende Gruppen untertei- len:

-Strukturierungsverfahren (vor allem die Fotolithografie zur Strukturierung von Foto- lackmasken, die in den nachfolgenden Schritten Bereiche auf dem Wafer abdecken, die nicht behandelt (z. B. dotiert) werden sollen),

-Verfahren zum Schichtaufbau (Epitaxie, Sputterdeposition, Bedampfen, CVD usw.), -Verfahren Schichtabtrag und Reinigung (trocken- und nasschemische Ätzprozesse) und

-Verfahren zur Änderung von Materialeigenschaften (z. B. Ausheizprozesse, Dotierung, Silizidbildung).

Die Front-End-Fertigung unterteilt sich nochmals in zwei größere Bereiche: das Front- End-of-Line (FEoL) und das Back-End-of-Line (BEoL). Sie unterscheiden sich sowohl hinsichtlich der zu fertigenden funktionellen Elemente als auch der eingesetzten Ferti- gungsverfahren der Flalbleitertechnik und Materialien. Ausgehend von einem unstruk- turierten Wafer umfasst das Front -End-of-Line im Wesentlichen alle Prozessschritte für die Flerstellung der elektrisch aktiven und passiven Bauelemente (Transistoren, Kon- densatoren und auch Widerstände), im Back-End-of-Line werden hingegen die elektri- schen Verbindungen zwischen diesen Bauelementen gefertigt und so erst zu einer funk- tionierenden elektronischen Schaltung verknüpft. Im übertragenen Sinn werden hierbei Drähte, also dünne elektrische Leitungen aus Metall, gefertigt und gemäß dem Schalt- plan verknüpft. Daher spricht man auch von Verdrahtung oder Metallisierung.

Grobe Trennlinie für das FEoL und das BEoL ist die Kontaktierung der Transisto- relektroden. Die hierbei grundlegend verwendeten Verfahren entsprechen in großen Teilen dem im BEoL. Da in diesem kritischen Bereich jedoch spezielle Techniken und wiederum andere Materialien genutzt werden, ist dieser nicht klar einem der Bereiche zuzuordnen. Daher hat sich für diesen Fertigungsabschnitt die Bezeichnung Middle-of- Line etabliert. Im Folgenden werden vereinfacht die wesentlichen Prozessfolgen für die Fertigung moderner, sogenannter Metall-Oxid-Halbleiter-

Feldeffekttransistoren(MOSFET) innerhalb größerer integrierter Schaltkreise beschrie- ben.

Die Front-End-Fertigung eines typischen Mikroprozessors startet mit der Herstellung der Isolationsbereiche zwischen den einzelnen Bauelementen. Seit Ende der 1990er- Jahre wird hierzu weitgehend die sogenannte Grabenisolation (engl shallow trench Iso- lation, STI) genutzt. Hierbei werden zunächst große Grabenbereiche in das Substrat (meist Silizium) geätzt. Die Definition dieser Bereiche erfolgt über eine zuvor foto- lithografisch strukturierten Lackmaske, die die späteren aktiven Transistorbereiche vor dem Ätzangriff schützt. Nach dem Ätzen werden die Gräben mit einem elektrisch iso- lierenden Material (meist Siliziumdioxid) aufgefullt, meist mit Verfahren der chemi- schen Gasphasenabscheidung (CVD). Um sicherzustellen, dass keine ungefüllten Be- reiche entstehen, wird deutlich mehr Nichtleitermaterial abgeschieden, als notwendig ist. Um anschließend wieder eine glatte Oberfläche zu erhalten, wird das überschüssige Material durch chemisch-mechanisches Polieren (CMP) abgetragen und die Waferober- fläche eingeebnet.

Nun folgt der nächste Fertigungsabschnitt, die Herstellung der sogenannten„Wannen“ (im Englischen wells) und der Vorbereitung des späteren Transistorkanals durch Dotie- rung des Substratmaterials. Dabei wird die extrinsische elektrische Leitfähigkeit des Substratmaterials lokal geändert. So entsteht beispielsweise durch Dotierung eines übli- cherweise genutzten p-leitenden Silizium-Wafers (siehe auch Czochralski -Verfahren) mit Bor eine n-leitende Wanne, in dem anschließend die p-Kanal-Feldeffekttransistoren (FET), also ein Transistor, dessen Funktion auf der Ausprägung eines elektrisch p- leitenden Kanals basiert, hergestellt werden.

Die Wannendotierung ist notwendig, um überhaupt die zwei unterschiedlichen Varian- ten von Feldeffekttransistoren (n-Kanal- und p-Kanal-Transistoren) für die seit einigen Jahrzehnten bei integrierten Schaltkreisen üblicherweise genutzte CMOS-Technik her- steilen zu können. Darüber hinaus tragen die bei der Wannenherstellung entstehenden p-n-Übergänge dazu bei, die unterschiedlich dotierten Bereiche elektrisch zu entkop- peln. Die einfachste Variante ist der bereits beschriebene Einfachwannenprozess (hier für eine p-Wanne). Für bestimmte Anforderungen wird aber auch ein Zweifach- (p- und n-Wanne; engl twin-well process) oder Dreifachwannenprozess (engl triple-well pro- cess) verwendet.

Die Dotierung selbst erfolgt heutzutage in der Regel mittels Ionenimplantation ganzflä- chig über den Wafer. Um die Bereiche zu schützen, die nicht oder anders dotiert werden sollen, werden diese mithilfe einer zuvor fotolithografisch strukturierten Lackmaske abgedeckt, diese wird wie üblich nach den Prozessen einer„Strukturierungs-Ebene“ durch nasschemische Prozesse (z. B. Piranha-Lösung) und/oder Plasmaveraschung ent- fernt. Diese gleichen Prozesse werden auch für die Dotierung des Transistorkanals ein- gesetzt. Im Unterschied zu den Wannen werden die Dotierungen jedoch nahe an der Oberfläche eingebracht. Zum Abschluss folgt in der Regel ein Temperaturprozess, der die bei der Ionenimplantation entstandenen Gitterstörungen ausheilt und die Dotierun- gen durch den Einbau in das Kristallgitter des Substrats elektrisch aktiviert.

Der dritte Prozessabschnitt dient dem Aufbau des Gate-Schichtstapels und der Gate- Strukturierung. Im Falle des in den 1990er- und 2000er-Jahren üblichen CMOS- Prozesses mit Siliziumdioxid als Gatedielektrikum und Polysilizium als Gateelektrode wird zunächst das sehr dünne (wenige Nanometer dicke) Gateoxid erzeugt, häufig durch„Rapid Thermal Oxidation“ (RTO, dt. etwa schnelle thermische Oxidation). Es folgt die ganzflächige Abscheidung eines Schichtstapels aus Polysilizium und einer dünnen Verkapselungsschicht aus Siliziumdioxid. Diese Oxidschicht wird mittels Foto- lithografie und Ätzen strukturiert.

Die entstehende strukturierte Schicht dient nach dem Entfernen der Fotolackmaske als Hardmaske für die Gatestrukturierung durch einen anisotropen Trockenätzprozess, re- aktives Ionenätzen (RIE). Die Gatestrukturierung ist neben der Grabenisolation einer der anspruchsvollsten Prozesse im FEoL. Vor allem die Fotolithografie für die Definiti- on der Gateelektrode stellt bis heute eine technische Grenze für die Miniaturisierung der (Planar-)Transistoren dar. Hier kommen hochspezialisierte Verfahren wie die Immersi- onslithografie, Verkleinerung der Linien der Fotolackmaske durch einen isotropen Trockenätzprozess (engl resist shrink) und zunehmend auch Mehrfachstrukturierungen zum Einsatz. Auch der bereits erwähnte Zwischenschritt ist ein (relativ einfacher) Spe- zialprozess, der dadurch notwendig wird, dass die Fotolithografie unter anderem keine ausreichend dicken Fotolackmasken der notwendigen Auflösung bereitzustellen ver- mag, die den Ätzprozess überstehen würden.

Nach der Gatestrukturierung folgt, vereinfacht gesagt, die Definition der Source- und Drain-Gebiete. Im Fall älterer Technologieknoten (größer 350 nm) umfasste dies ledig- lich die spezielle Dotierung der Source- und Drain-Gebiete. Für die heutzutage typi- scherweise eingesetzten LDD-MOSFETs (LDD = engl lightly doped drain) beinhaltet dies jedoch die Dotierung der Drain-Erweiterungs- (extension implant) und Halo- Implantate sowie die Herstellung von einem oder mehreren Spacem (dt. etwa„Ab- standshalter“), über die sich die Position der durch Ionenimplantation eingebrachten Dotierungen verhältnismäßig leicht kontrollieren lässt. Erst am Ende folgt die abschlie- ßende Dotierung der Source- und Drain-Gebiete, mit denen der eigentliche FEOL- Fertigungsabschnitt endet. Nun beginnt die Kontaktierung und Verknüpfung der Tran- sistoren.

Nach der eigentlichen Transistorfertigung erfolgt die Verbindung der einzelnen Bau- elemente. Bevor dies geschieht, müssen jedoch zunächst die Transistorelektroden elek- irisch kontaktiert werden. Der Abschnitt der Kontaktfertigung wird nicht eindeutig dem FEOL oder BEOL zugeordnet, deshalb wird dieser Abschnitt auch häufig als Middle- of-Line (MOL) bezeichnet.

Um einen guten elektrischen Kontakt der halbleitenden Bereiche und der metallischen Verbindung zu gewährleisten (vgl. Schottky-Kontakt), werden die Elektroden zunächst silizidiert, beispielsweise durch ganzflächige Abscheidung einer Nickelschicht und nachfolgender Silizid-Bildung bei hohen Temperaturen. Nach der Silizidbildung folgt in der Regel die Abscheidung und Einebnung des Zwischendielektrikums - meist undo- tiertes Silikatglas (engl undoped silcat glass, USG) oder Low-k-Dielektrika (zuneh- mend seit Mitte der 2000er Jahre). Anschließend folgt die Herstellung der Kontaktlö- cher mittels RIE und deren Füllung mit einem Metall, meist Wolfram, das über CVD- Verfahren abgeschieden und mittels CMP eingeebnet wird.

Auch die bei einigen Transistortechnologien genutzten Verspannungsschichten, die Druck oder Zug auf den Transistorkanal ausüben sollen und somit die Ladungsträger- beweglichkeit beeinflussen können, werden meist nach der Silizidbildung aufgebracht und dem MoL zugeordnet.

Nun folgt das eigentliche BEOL der Metallisierung, das heißt die Herstellung eines Netzwerks aus Leiterbahnen, mit denen die einzelnen Bauelemente verbunden werden. Typische Materialien sind Aluminium bzw. seit Ende der 1990er oft auch Kupfer. Die Herstellung der Leiterbahnen ist dabei stark vom verwendeten Metall abhängig. So wird bei Aluminium in der Regel zunächst das Metall ganzflächig abgeschieden und an- schließend mithilfe der Fotolithografie und einem Trockenätzprozess strukturiert. Diese Methode ist bei Kupfer nicht möglich, da es keinen Trockenätzprozess für Kupfer gibt, bei dem gasförmige Reaktionsprodukte entstehen. Es gibt seit den frühen 2000er Jahren jedoch erfolgreiche Forschungsarbeiten, Kupfer im Hochvakuum mit Trockenätzverfah- ren zu strukturieren. Stattdessen erfolgt bei Kupfer zunächst eine Strukturierung der ganzflächig abgeschie- denen Isolationsschicht und danach die Kupfermetallisierung mittels galvanischer Ver- fahren. Hierbei kommen im Wesentlichen zwei Techniken zum Einsatz: der Da- mascene- und Dual-Damascene-Prozess. Sie unterscheiden sich in der Art, wie die elek- trischen Verbindungen, genannt VIA (englisch vertical interconnect access), zwischen den eigentlichen Leiterbahnebenen gefertigt werden (einzeln oder zusammen mit den Leiterbahnebenen). Die VIAs entsprechen den Durchkontaktierungen bei mehrschichti- gen Leiterplatten. In der Abbildung sind es die orange, senkrechten Strukturen. In ei- nem fertigen integrierten Schaltkreis befinden sich dann 13 bis zu 15 solcher Metallisie- rungsebenen übereinander[13]. Die Strukturgröße nimmt dabei stufenweise in höheren Ebenen zu, beispielsweise sind die ersten beiden Ebenen in der kleinstmöglichen Struk- turgröße (l x) gefertigt und anschließend folgen zwei bis fünf Ebenen mit einem größe- ren Strukturabstand (z. B. 2 X ) dies sich bis zu 32-fach (32x) gröberen Strukturen in der obersten Ebene fortsetzen (Zwischenstufen können dabei ausgelassen werden).

Neben dieser konventionellen Metallisierung gibt es auch weitere Techniken wie Silizi- um-Durchkontaktierung (englisch through-silicon via, TSV). Sie wird derzeit bei eini- gen Sensoranwendungen eingesetzt, bei denen bestimmte Funktionen sowohl auf der Vorder- als auch auf der Rückseite der Chips benötigt werden, beispielsweise bestimm- te Biosensoren. Sie gilt aber auch als eine zukunftsträchtige Technik zur Realisierung einer künftigen 3D-Integration von integrierten Schaltkreisen. Dabei werden mehrere (stark abgedünnte) Chips übereinander gestapelt und die einzelnen Chipebenen elek- trisch durch TSVs miteinander verbunden. Da in beiden Fällen die TSVs durch den Wafer verlaufen, spricht man auch von wafer level through-silicon via (dt. Silizium- Durchkontaktierung durch den Wafer), siehe auch ITRS 2009.

Bei einigen Bauelementen, wie beispielsweise IGBT, wird zusätzlich die der Schaltung entgegengesetzte Seite metallisiert, um einen leitenden Kontakt herzustellen; allerdings mit nur einer oder zwei Metallisierungsebenen. Zur Verwendung auf einer Leiterplatte muss der empfindliche Chip in ein Gehäuse eingebaut werden. Im sogenannten Back- End werden die Wafer in die Einzelchips zerteilt und diese in der Regel in ein Gehäuse eingebracht.

Vor dem Zerteilen werden die Wafer häufig durch Schleifen abgedünnt, das sogenannte „Backlapping“. Die Wafer sind danach nur noch ca. 100 bis 200 mm dick. Die Abdün- nung wird vorgenommen, um das Kühlverhalten des Chips zu verbessern. Dies ist mög- lich, da sich bei integrierten Schaltkreisen in Dünnschichttechnik elektrisch aktive Ge- biete nur in den ersten Mikrometern an der Oberfläche der Strukturseite befinden. Das restliche Substratmaterial dient nur noch der mechanischen Stabilität. Bei gesägten Chips ist die volle Substratdicke nicht mehr notwendig. Dicke Substrate weisen jedoch einen höheren Wärmeleitwiderstand auf. Da die Kühlkörper in der Regel auf der Sub- stratrückseite angebracht werden, besitzen abgedünnte Wafer ein besseres Kühlverhal- ten. Das Zerteilen der Wafer in die einzelnen Dies erfolgt in der Regel durch Sägen, sel- ten auch durch Ritzen und Brechen. Damit die Dies beim Sägen nicht auseinanderfal- len, wird vor dem Sägen der Wafer auf eine Sägefolie aufgeklebt. Da die Säge ein Stück aus dem Wafer entfernt, sind die Chips nicht nahtlos nebeneinander angeordnet, sondern haben einen gewissen Abstand. In diesen Bahnen, dem sog.„Ritzrahmen“, sind zudem Teststrukturen aufgebracht, die unter anderem zur PCM-Messung unmittelbar nach der Front-End -Fertigung genutzt werden. Diese Teststrukturen werden beim Sägen zerstört.

Beim nachfolgenden Verpacken (engl packaging) werden die einzelnen ICs dann in ein Gehäuse eingebracht und kontaktiert, das sogenannte Bonden. Dabei kommen je nach Typ unterschiedliche Verfahren zum Einsatz, beispielsweise Chipbonden oder Draht- bonden. Das Verkappen (Einhausen) dient zur hermetischen Versiegelung gegenüber Umwelteinflüssen - für rein elektrische Schaltkreise muss das Gehäuse gas- und licht- dicht sein - sowie zur besseren Verwendbarkeit. Entweder wird der Chip samt Bond- drähten in einem Hohlraum (Blech, Keramik, ggf. mit Fenster) eingeschlossen oder mit Kunstharz umhüllt (eingegossen, Spritzgusstechnik). Hochkomplexe Schaltkreise (meist für mobile Anwendungen) werden neuerdings (2009) auch ohne Sockelgehäuse eingesetzt und direkt auf die jeweiligen Platinen gelötet (vgl. Ball Grid Array). Zum Abschluss erfolgt nochmals ein Funktionstest, dabei werden zugesicherte Eigenschaften an allen Schaltkreisen geprüft.

Die Typprüfung erfolgt stichprobenartig oder nur in der Entwicklungsphase. Die Stück- prüfung dient dem Sortieren in Schaltkreise unterschiedlicher Güteklassen (zum Bei- spiel nach Offset-Spannung bei Operationsverstärkern) Prüfergebnisse und die Art der Verkappung bestimmen das Einsatzgebiet. So werden hohe Qualitäten für erweiterte Einsatztemperaturen und Umweltanforderungen gefertigt (sog. MIL-Standard für mili- tärische und Raumfahrt-Anwendungen). Höhere Toleranzen und Plastik-Verkappung kommen für Massenanwendungen (Konsumgüter) in Frage.

Als letzter Schritt wird das Gehäuse mit Informationen des Herstellers bedruckt, z. B. mit dem Herstellemamen, der Typennummer, dem Herstellungsdatum u. ä. Die Back- End-Fertigung wird im Gegensatz zur Front-End-Fertigung von Mikromechanik und Verfahren der Kunststoffbearbeitung (Spritzguss) dominiert.

Um schon frühzeitig auf Prozessschwankungen zu reagieren, fehlerhafte Prozesse ge- gebenenfalls zu korrigieren oder gar Wafer oder Lose aus der Produktion zu nehmen, werden die noch unfertigen ICs nach vielen Prozessschritten getestet. Im Front-End handelt es sich dabei meist um Stichproben in Form eines PCM-Tests (engl process control monitoring, dt.: Prozessüberwachung). Für die Bestimmung von technologi- schen Parametern erfolgt die Prüfung (beispielsweise Schichtdickenprüfung) meist di- rekt nach dem jeweiligen Prozess, hier ist es mitunter wichtig auch die jeweiligen Anla- gen mit zu erfassen, da auch baugleiche Anlagen mit denselben Parametern Abwei- chungen erzeugen, die außerhalb des Toleranzbereichs liegen können. Nach dem Front- End werden in der Regel alle ICs vor der Weiterverarbeitung auf ihre Funktion getestet. Dabei werden die wichtigsten elektrischen Parameter der verwendeten Bauelemente an speziellen Teststrukturen ermittelt, die sich in den Ritzgräben zwischen den Chips be- finden. Die Parameter müssen bestimmte Spezifikationen einhalten, um sicherzustellen, dass die Chips im gesamten zulässigen Temperaturbereich und über die volle spezifi- zierte Lebensdauer zuverlässig arbeiten. Teilweise sind bestimmte Funktionen (HF-Schaltungen oder später nicht auf PINs her- ausgeführte Anschlüsse des Chips) nur auf dem Die testbar. Vor allem muss aus Ko- stengründen verhindert werden, dass nicht funktionsfähige ICs im nachfolgenden Her- stellungsprozess weiterbearbeitet werden.

Obwohl diese Messungen auf speziellen Testsystemen (Automatic Test Equipment) vollautomatisch ablaufen, haben die damit verbundenen Kosten bei hoch integrierten Prozessorchips bereits nahezu die Herstellungskosten erreicht. Dies liegt vor allem dar- an, dass nur bedingt Skaleneffekte beim Testen greifen (eine Parallelisierung ist bei- spielsweise nur bei reinen Digitalschaltungen möglich) und neuere ICs immer mehr Funktionen beinhalten, die nacheinander getestet werden müssen. Um die feinen Struk- turen der Mikroelektronik auflösen zu können, werden heutzatage Stärmadeladapter eingesetzt, mit welchen ein Messpunktabstand von 150 mm aufgelöst werden kann. Durch das präzise Führen der Starmadeln können mit solchen Adaptern Kontaktstellen mit einem Durchmesser von 70 mm abgegriffen und geprüft werden. Als weiteres er- möglicht der Starmadeladapter auch das Kontaktieren von feinpoligen Mikrosteckern, welche heutzutage in der Mikroelektronik immer mehr ihre Anwendung finden. Somit müssen solche Stecker nicht mehr mit dem schnell verschlissenen Gegenstecker kontak- tiert werden. Bei allen neuen FE-Technologien wird eine Lemkurve durchlaufen, die sich u. a. an der Ausbeute funktionierender Bausteine messen lässt (Yield). Da eine neue FE Technologie erhebliche Entwicklungskosten (z. T. 3-stellige Millionenbeträge) beinhaltet, haben die Firmen ökonomische Vorteile, die möglichst schnell hohe Yield Werte erzielen.

Schließlich wird auch der gehäuste Chip vor der Ablieferung einem endgültigen Test unterzogen, um Fehler in der Back-End-Fertigung festzustellen. Auch werden einige Eigenschaften getestet, die sich durch das Packaging verändern, bzw. deren Messung ohne Gehäuse nicht möglich ist, wie z. B. das Bonding oder bestimmte Hochfrequen- zeigenschaften. Der gehäuste Chip kann dann zur Leiterplattenbestückung gehen. Integrierte Schaltkreise werden als eigenständiges elektronisches Bauteil betrachtet. Die Größe des IC-Substrats (englisch die) beträgt dabei in der Regel nur wenige Quadrat- millimeter und ist erheblich kleiner als das umgebende Gehäuse, das die eigentlichen elektrischen Anschlüsse (Pins) in handhabbarer Größe zum Verlöten bereithält. Um die Produktionskosten der oft komplexen und herstellungsaufwendigen ICs möglichst ge- ring zu halten, werden in der Mikroelektronik mehrere (hundert bis tausend) integrierte Schaltkreise parallel auf so genannten Wafern hergestellt, die dabei auftretenden Pro- duktionstoleranzen und -fehler verhindern allerdings eine hundertprozentige Ausbeute. Um die Produktionskosten in nachfolgenden Generationen komplexerer ICs möglichst konstant zu halten oder gar zu senken, werden in der Mikroelektronik zwei große Trends vollzogen. Zum einen wird die Chip-Fläche für den einzelnen IC möglichst ge- ring gehalten (Haupttrend) zum anderen werden möglichst viele ICs auf einem Wafer untergebracht, während das Gehäuse anderen Anforderungen Rechnung trägt (Löttech- nologie, Wärmeableitung etc.) und je nach Marktanforderung auch verschiedene Aus- prägungen zeigt.

Die möglichst konstant gehaltene Chip-Fläche hat bei immer komplexer werdenden Schaltkreisen zur Folge - moderne integrierte Schaltkreise wie z. B. Speicherbausteine und Mikroprozessoren können einige Milliarden Bauteile (insbesondere Transistoren) enthalten -, dass die einzelnen Bauelemente wie Transistoren verkleinert werden müs- sen, was ebenfalls eine höhere Taktung und eine verringerte Betriebsspannung und da- her Leistungsaufnahme ermöglicht. Bei konstanter Chip-Fläche können aber kaum Ko- sten durch höhere Parallelität bei der Herstellung gespart werden. Daher wurde die Standard-Wafer-Größe in der Produktion von 2-Zoll-Wafem auf heute 12-Zoll-Wafern (wirklicher Durchmesser 300 mm) erhöht. Mit der steigenden Wafer-Größe ging auch eine effizientere Ausnutzung der Wafer-Fläche einher (weniger Verschnitt). Um aller- dings die Produktionsqualität dabei nicht nur gleich zuhalten, sondern zu verbessern— was aufgrund kleiner Bauelemente notwendig war - mussten große Herausforderungen in der Beschichtungstechnologie überwunden werden. Im Allgemeinen werden also bei der Miniaturisierung der Schaltkreise folgende Ziele verwirklicht: Ein Ziel ist eine effizientere Fertigung, dies wird unter anderem durch parallele Fertigung auf einem Substrat (englisch wafer) und somit der Einsparung von Rohstoffen bei der Produktion und der Weiterverarbeitung erreicht.

Weiterhin sollen die Bauelemente effizienter im Betrieb werden, so ermöglicht die Ver- kleinerung der Strukturen eine Erhöhung der Schaltgeschwindigkeiten, dies wird bei- spielsweise durch kürzere Leitungslängen und somit kürzere Signallaufzeiten sowie ge- ringeren Latenzzeiten beim Umladen der Kapazitäten in den Bauelementen erreicht, und durch Verringerung der Leistungsaufnahme der ICs.

Durch die Integration weiterer Funktionen können neue ICs oft die Funktionalität meh- rerer vorher diskreter ICs in sich vereinen, damit kann auch die Zuverlässigkeit erhöht werden, was vor allem in der Anfangsphase der integrierten Schaltkreise ein wichtiger Vorteil gegenüber konventionellen, gelöteten Schaltungen darstellte.

Auf diese Weise sollen kleinere, leistungssparendere Bauelemente mit immer mehr Funktionen hergestellt werden, dies ist vor allem bei mobilen Geräten wichtig. Die in- tegrierten Schaltungen und deren Miniaturisierung ermöglicht so Telefon-, SIM-, Geld- und Kreditkarten, RFID, intelligente Sensoren, kleinere und langlebigere Herzschritt- macher oder Hörgeräte sowie MP3 -Abspielgeräte oder CMOS-Kameras, u. a. in Mobil- telefonen.

Integrierte Schaltkreise bilden heute die Grundlage jeglicher komplexer Elektronik, ins- besondere der Computertechnik. Erst durch die Integration ist es möglich, umfangreiche Funktionalität auf kleinem Raum zur Verfügung zu stellen. Darüber hinaus ermöglichen integrierte Schaltkreise in vielen Fällen überhaupt auch erst die technische Realisierung von Systemen, die sonst zu teuer, zu komplex, zu leistungsintensiv, zu groß bzw. prin- zipiell nicht machbar wären. 74. Electronic Cash Terminal

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) für ein Electronic Cash Terminal.

Als Electronic Cash Terminals (engl. EFT-POS-Terminal) bezeichnet man in Deutsch- land Endgeräte für die Abwicklung von Zahlungen mit Kreditkarten oder Debitkarten. Es gibt sie in stationärer oder in mobiler Ausführung. Wenn das Terminal das deutsche PIN-gestützte Zahlungsverfahren„Girocard“ abwickeln können soll, ist in Deutschland eine Zulassung durch den Spitzenverband des Bankgewerbes einerseits und durch Die Deutsche Kreditwirtschaft andererseits notwendig. Diese Zulassung erhält ein Terminal erst nach ausführlicher Begutachtung durch einen beauftragten Sicherheitsexperten.

Zahlungsarten

Bei dem Girocard-Verfahren erfolgt die elektronische Zahlung durch Eingabe der PIN (Persönliche Identifikationsnummer) durch den Karteninhaber an einem sogenannten Encrypting PIN Pad. Anschließend muss der Karteninhaber den Zahlbetrag mit der grü- nen Taste bestätigen. Die Überprüfung des Verfügungsrahmen und auf eine eventuelle Kartensperrung erfolgt mit einem EFT-POS-Terminal (EFT steht hier für engl.: Electronic-Funds-Transfer-Terminal, wörtlich übersetzt: Elektronisches-Wert- Übertragungs-Terminal). Nach dessen Autorisierung auf Verfügungsrahmen und Tages- limit des Kunden, erhält der Händler die Zahlungsbestätigung.

Bei Kredit- und Debitkarten mit freigeschalteter Offline-Zahlungsfunktion wird die PIN und der Verfügungsrahmen über den EMV-Chip offline geprüft. Neben der Zahlung über das EMV-Verfahren gibt es das Elektronische SEPA-Lastschriftverfahren (ELV). Dabei werden vom EFT-POS-Terminal die Kontodaten der Debitkarte ausgelesen und es wird eine Lastschrift mit Einzugsermächtigung generiert, die der Kunde durch eine Unterschrift direkt am Terminal oder auf einem ausgedruckten Beleg genehmigt. Eine Risikobegrenzung wird bei einigen Terminalanbietem durch einen Abgleich mit einer Sperrliste des Terminalbetreibers realisiert. Bei diesem elektronischen Zahlungsverkehr gibt es keine PIN-Eingabe am Kartenterminal. 75. Chipkartenleser

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) für einen Chipkartenleser.

Chipkartenleser oder Chipkartenlesegerät sind Geräte, die Chipkarten ansteuem. Dabei werden nicht nur Daten gelesen, sondern auch geschrieben oder Applikationen auf der Chipkarte angesteuert; daher spricht man auch von einem Chipkartenterminal. Die Ge- räte versorgen die Chipkarte mit Strom, takten sie und etablieren die Kommunikation gemäß den unterstützten Parametern der Karte, welche die Karte über die ATR (Answer to Reset) dem Leser mitteilt. Ob nun Lese-, Schreib- oder Rechenbefehle, sogenannte APDUs, an die Karte gesendet werden, bestimmt die Hostsoftware. Dennoch werden die angebotenen Chipkartenleser häufig nach dem Haupteinsatzgebiet unterschieden. So bietet der Markt neben den Modellen für Verwaltung und Finanzen auch solche für Mobilfunk, die üblicherweise zusätzlich über Kontaktiereinrichtungen für die kleinen Chipkartentypen (ISO 7816, ID-000) verfügen. Die Ansteuerung kann über an die Kon- takte angelegte Stromsignale erfolgen. In Anwendungsgebieten, bei denen kontaktbe- haftete Chipkarten nicht vorteilhaft sind, werden sie mit RFID zu Transponderkarten verbunden.

Für sicherheitsrelevante Anwendungen, wie etwa Intemetbanking, werden Kartenleser gemäß einer DK-Spezifikation in vier Sicherheitsklassen eingeteilt:

Sicherheitsklasse 1

Geräte dieser Klasse haben keine besonderen Sicherheitsmerkmale. Der Kartenleser dient nur als Kontaktiereinheit für die Chipkarte.

Sicherheitsklasse 2 Diese Chipkartenleser besitzen eine Tastatur, über die zum Beispiel die PIN fürs Homebanking direkt eingegeben werden kann. Dadurch wird das Ausspähen der PIN (zum Beispiel durch Keylogger oder Trojaner) praktisch ausgeschlossen. Eine Verände- rung der Daten eines Homebankingvorgangs vor dem Signieren ist jedoch mit einem Trojanischen Pferd möglich.

Sicherheitsklasse 3

Zusätzlich zur Tastatur haben diese Geräte ein Display sowie Firmware mit der zum Beispiel auch das Bezahlen mit der Geldkarte im Internet möglich ist. Secoder-fähige Geräte erlauben zudem die manipulationssichere Anzeige der Signaturdaten im Gerä- tedisplay.

Sicherheitsklasse 4

Diese Lesegeräte verfugen zusätzlich über mindestens einen weiteren Kartensteckplatz. In diesem steckt ein Authentifizierungsmodul (Secure Access Module bzw. SAM), das das Lesegerät bzw. den Betreiber eindeutig identifiziert. SAM-Module haben (meist) einen lD-000-Formfaktor und sind (oft) gegen unberechtigtes Entfernen im Inneren des Gerätes untergebracht. Vergleiche auch: POS-Terminals (Point of Sale) (z. B. Electro- nic Cash, Händlerterminal für Geldkarte). Diese Lesegeräte sind zumeist sogenannte Hybridgeräte, die auch Karten mit Magnetstreifen lesen und verarbeiten können.

Kartenlesegeräte gibt es sowohl als externe als auch als interne Form. Die externe Form ist ein kleines Kästchen, das meistens mit einem USB-Kabel an den PC angeschlossen wird und über das Protokoll CCID (englisch chip card interface device) angesprochen wird. Auch der Anschluss über eine serielle Schnittstelle ist je nach Bauart möglich. Die interne Form befindet sich im PC-Gehäuse und ist über ein Kabel mit der Hauptpla- tine des PC verbunden. Mittlerweile haben einige normale Haushaltsgeräte einen inte- grierten Kartenleser: Alle Mobiltelefone sprechen SIM-Karten an, und Digitalkameras oder MP3-Spieler lesen und beschreiben Speicherkarten. Kartenlesegeräte können auch in einem Kartendrucker implementiert werden. Das hat den Vorteil, dass Chipkarten, RFID-Transponder oder auch Smartcards innerhalb eines einzigen Arbeitsschritts bedruckt bzw. personalisiert sowie ausgelesen und kodiert wer- den können. Auch selektives Auslesen oder Kodieren ist mit einer entsprechenden Kar- tensoftware möglich. Verbreitet sind Kartendrucker mit fest eingebautem Kartenlese- modul bei lokalen Personal isierungen (z. B. bei der Fertigung von Besucherausweisen mit eingeschränkter Bewegungserlaubnis) und bei Bezahlanwendungen.

Beispiele von Funktionen: Onlinebanking (beispielsweise per HBCI), Zeiterfassung am Arbeitsplatz, Authentifizierung eines Benutzers am Computer, Auslesen von Kontakt- daten auf einer SIM-Karte, Auslesen des Geldbestandes einer Geldkarte; siehe auch Makatel, Auslesen der auf einer Krankenkassenkarte (Deutschland)/eCard (Österreich) gespeicherten Daten, Signierung mit der Bürgerkarte (Österreich), Autorisierung zum Empfang verschlüsselter Sendungen, Auslesen von Speicherkarten; Hauptartikel Spei- cherkarten lesegerät .

Lange Zeit waren Kartenlesegeräte nur über proprietäre Schnittstellen ansprechbar. Das machte es für Softwareentwickler schwer, da sie nicht nur die Besonderheiten der Chipkarte, sondern auch die des Lesers berücksichtigt mussten. Für den Anwender be- deutete es, dass er an eine bestimmte Kombination aus Leser und Chipkarte gebunden war.

Die CT-API: Ein erster Ansatz für eine standardisierte Anwendungsschnittstelle (API) war die CT-API (Card Terminal Application Programming Interface). Diese wurde im Rahmen der deutschen Krankenversichertenkarte entwickelt und besteht aus einer dy- namischen Bibliothek (DLL) mit einer definierten einheitlichen Schnittstelle, die je- weils vom Hersteller des Kartenlesers bereitzustellen ist. International hat sich die CT- API nicht durchgesetzt; sie blieb im Wesentlichen auf den deutschen Markt begrenzt.

Der PC/SC-Standard: Ein international erfolgreicher Ansatz zur Standardisierung ist der PC/SC-Standard. Er wurde von der PC/SC Workgroup erarbeitet und steht unter GNU / Linux, macOS, und Microsoft Windows zur Verfügung. Bei diesem Ansatz muss der Hersteller einen Gerätetreiber bereitstellen, auf den dann das Betriebssystem zugreift und die einheitliche Anwendungsschnittstelle bereitstellt. Alle Funktionsnamen dieser API beginnen mit dem Präfix-Text„SCard“. Einer der Nachteile der gängigen PC/SC-Implementierungen ist die fehlende Unterstützung für Speicher-Chipkarten.

Der Secoder-Standard

Der vom deutschen Zentralen Kreditausschuss (ZKA) entwickelte Secoder-Standard er- laubt das Laden von Geldkarten via Internet. Der Secoder zeichnet sich durch besonde- re Sicherheitsmerkmale aus, die ihn von herkömmlichen Kartenlesem unterscheiden: Er verfügt über eine eingebaute Firewall, die die Karte und die Geheimzahl des Nutzers schützt, sowie ein Display, welches die Transaktionsdaten zur Kontrolle anzeigt, womit jede Manipulation auffällig wird. Die Secoder-Erweiterung für HBCI erlaubt etwa die manipulationssichere Anzeige der Secodervisualisierungstexte (Transaktionsdaten wie z. B. Zahlungsempfänger und Betrag) im Gerätedisplay.

Diese muss allerdings von der jeweiligen Bank sowie der Homebanking-Software aktiv unterstützt werden. Außerdem ist die Eingabe der PIN auf dem Lesegerät zwingend. Angriffsversuche durch Schadsoftware wie Trojaner oder Keylogger soll der Secoder durch die Firewall abwehren, wodurch die Anwendungssoftware selbst keinen unmit- telbaren Zugriff auf das Gerät erhält. Da der Secoder-Standard zwingend Tastatur und Display vorsieht, entsprechen derartige Kartenleser immer auch mindestens der Sicher- heitsklasse 3.

76. Speicherkartenlesegerät

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) für ein Speicherkartenlesegerät.

Ein Speicherkartenlesegerät, Speicherkartenleser, kurz Kartenleser, engl. (Media) Card Reader genannt, ist ein Gerät, zum Lesen und Beschreiben von Speicherkarten, wie zum Beispiel CF- oder SD-Karten, auf denen u. a. Bilder von Digitalkameras oder Au- diodateien von MP3-Spielern gespeichert werden können. Dazu ist meist ein PC not- wendig sowie ggf. die für das Gerät benötigte Software.

Speicherkartenleser gibt es in externer wie auch in interner Form. Die externe Form ist ein kleines Kästchen, das mit einem USB- oder selten einem FireWire-Kabel an den PC angeschlossen wird oder in Stiftform direkt in eine USB-Buchse gesteckt werden kann. Die interne Form befindet sich als fest installierter Einschub im PC -Gehäuse, meist im 3,5"-Format und ist über ein Kabel mit der Flauptplatine verbunden. Diese Verbindung kann über USB, SATA oder IDE erfolgen. Für Notebooks gibt es auch Lesegeräte in Form einer PCMCIA/CardBus-Karte. Für CompactFlash-Karten genügt hier ein passi- ver Adapter, da CompactFlash kompatibel zum PCMCIA-Steckplatz ist.

Heutige Speicherkartenlesegeräte können wie folgt nach der Anzahl und Art der Steck- plätze kategorisiert werden: Single Card Reader (z. B. Ix SD), Multi Card Reader (z. B. 9-in-l) und Series Card Reader (z. B. 4x nur SD). Ein Unterscheidungsmerkmal bei Speicherkartenlesem mit mehreren Steckplätzen ist der gleichzeitige (simultane) Da- tenverkehr. Geräte mit dieser Funktionalität ermöglichen es von mindestens zwei in be- liebigen Steckplätzen eingesetzten Speicherkarten gleichzeitig lesen oder schreiben zu können, bis hin zum Datentransfer von Karte zu Karte. Die Anzahl der gleichzeitigen Datenströme ist je nach Modell fest vorgegeben und kleiner oder gleich der Anzahl von Steckplätzen. Sie entspricht der Anzahl der im Computer erscheinenden Laufwerke. Ein Gerät für simultanen Datenverkehr mit zwei Karten meldet zwei Laufwerke an.

Bei Geräten für maximal vier gleichzeitige Datenströme sind es vier Laufwerke, bei de- nen für so viele Karten wie maximal eingesteckt werden können, ist es für jeden Steck- platz jeweils ein Laufwerk. Kartenlesegeräte ohne die Fähigkeit zum gleichzeitigen Da- tenverkehr melden sich als nur ein einziges Laufwerk und leiten den Datenstrom zu dem Steckplatz mit einer Speicherkarte darin. Sobald in mehr als nur einem Steckplatz eine Karte steckt, werden die Lese- und Schreibzugriffe abgebrochen. Einige als Card- reader-Combo-Laufwerk bezeichnete Geräte enthalten zusätzlich ein Laufwerk für 3,5"- Disketten.

77. Frequenzmodulation

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens eine Einrichtung und/oder Vorrichtung zur Frequenzmodula- tion enthaltend.

Die Frequenzmodulation (FM) ist ein Modulationsverfahren, bei dem die Trägerfre- quenz durch das zu übertragende Signal verändert wird. Die Frequenzmodulation er- möglicht gegenüber der Amplitudenmodulation einen höheren Dynamikumfang des In- formationssignals. Weiterhin ist sie weniger anfällig gegenüber Störungen. Das Verfah- ren wurde von John Renshaw Carson schon 1922 mathematisch untersucht und von Edwin Howard Armstrong zuerst praktisch umgesetzt. Die Frequenzmodulation ist eine Winkelmodulation und verwandt mit der Phasenmodulation. Bei beiden wird der Pha- senwinkel beeinflusst. Nicht zu verwechseln ist sie mit der als digitale Frequenzmodu- lation oder auch als Miller-Code bezeichnten Kanalcodierung, welche beispielsweise bei magnetischen Datenträgern zur Datenaufzeichnung Anwendung findet.

Modulation : Ein ffequenzmoduliertes Signal kann bei hohen Frequenzen mit Hilfe ei- ner Oszillatorschaltung erzeugt werden, deren ffequenzbestimmender Schwingkreis ei- ne spannungsabhängige Kapazität, typischerweise eine Kapazitätsdiode, enthält, an welche das Modulationssignal als Signalspannung gelegt wird. Dadurch ändern sich die Kapazität der Diode und damit auch die Resonanzfrequenz des Schwingkreises. FM bei tiefen Frequenzen lässt sich einfacher mit spannungsgesteuerten Oszillatoren erzeugen. Zur digitalen Erzeugung eines ffequenzmodulierten Signals lässt sich vorteilhaft eine Direct Digital Synthesis-Schaltung (DDS) oder die Quadraturamplitudenmodulation (IQ-Modulation) verwenden. Demodulation: Vor der Demodulation wird die Amplitude des FM-Signals konstant ge- halten („begrenzt“), um etwaige Amplitudenänderungen, die durch Störungen auf dem Übertragungsweg entstehen können, zu beseitigen. Dieses ist möglich, da in der Ampli- tude keine Informationen enthalten sind. Üblicherweise verwendet man dafür eine Kette von Differenzverstärkem. Das empfangene FM-Signal wird selten unmittelbar demodu- liert, sondern zuerst nach dem Superhet-Prinzip in eine Zwischenfrequenz versetzt, die- ser Vorgang wird als Mischung bezeichnet. Beispielsweise wird der FM-Rundfunk auf der Trägerfrequenz f = 100 MHz mit einem Frequenzhub AfT = ± 75 kHz übertragen. Der relative Hub beträgt und erlaubt keine problemlose Demodulation. Durch Umset- zung auf die bei UKW-Empfängern übliche Zwischenfrequenz von 10,7 MHz wird H etwa verzehnfacht und die Schaltung vereinfacht. Schmalband-FM wie Slow Scan Te- levision ist ohne diese vorgehende Frequenzänderung überhaupt nicht demodulierbar.

Es gibt verschiedene Arten von FM-Demodulatoren. Ein Diskriminator wandelt das FM-Signal zuerst in eine Amplituden- oder Pulsmodulation um. In der Anfangszeit be- nutzte man dazu einfache Flankengleichrichter, später Ratiodetektoren. Bei dem Koinzidenzdemodulator wird aus dem frequenzmodulierten Signal ein phasenmodulier- tes Signal gebildet, das dann demoduliert werden kann. Eine weitere Möglichkeit ist der PLL-Demodulator. Durch Phasenvergleich des modulierten Signals mit dem Signal ei- nes lokalen Oszillators erhält man eine Spannung entsprechend der Abweichung, mit der man den PLL-Oszillator nachregelt. Die Regelspannung ist zugleich das NF- Ausgangssignal. PLL-Demodulation liefert eine hohe Empfangsqualität und -Sicherheit, sie war jedoch aufwendig bis zur Verbreitung von speziell dafür entwickelten integrier- ten Schaltungen.

Aus der Ausgangsspannung des FM-Demodulators gewinnt man häufig gleichzeitig ei- ne Regelspannung, mit der man den Oszillator des Empfängers nachführt (Automatic Frequency Control, kurz AFC), um das Signal in der Mitte des Durchlassbereiches der ZF-Filter und so die Verzerrung gering zu halten. Kenngrößen der Frequenzmodulation: Man bezeichnet die durch die Modulation verur- sachte Änderung der Trägerfrequenz mit DίT (auch Frequenzhub oder kurz Hub ge- nannt), die Änderung des Phasenwinkels des Trägers mit D f T {\displaystyle \Delta Yvarphi _{\mathrm {T} }} und das Verhältnis des Frequenzhubs D f T {\displaystyle \Delta f_{\mathrm {T} }} zur Modulationsfrequenz f S {\displaystyle f_{\mathrm {S} }} als Modulationsindex h: wobei f S (\displaystyle f_{\mathrm {S} } } die höchste zu übertragende Nutzsignalfrequenz darstellt (Bandbreite des Nutzsignals).

Für die Bandbreite des frequenzmodulierten Signals gilt näherungsweise die Carson- Formel: B 10 % = 2 · ( D f T + f S ) = 2 · f S · ( h + 1 ) {\displaystyle B_{ 10\,\%}=2\cdot (\Delta f_{\mathrm {T} }+f_{\mathrm {S} })=2\cdot f_{\mathrm {S} }\cdot (\eta +1)\,} (bei einem Modulationsindex h größer 1).

Hierbei werden alle Spektrallinien bis auf 10 % der Amplitude des Trägers erfasst. Es liegen somit 90 % der Spektrallinien innerhalb der errechneten Bandbreite (Bandbreite mittlerer Übertragungsgüte). Berücksichtigt man Spektrallinien bis auf 1 % der Trä- geramplitude, so ergibt sich (ebenfalls als Carson-Formel bezeichnet) die Bandbreite für eine hohe Übertragungsgüte, bei der 99 % der Spektrallinien in der Bandbreite lie- gen, durch:(bei einem Modulationsindex h größer 1). Als konkretes Beispiel für die dargestellten Kenngrößen sei der frequenzmodulierte UKW-Hörfunk angegeben: Dabei wird bei Monoprogrammen mit einem Frequenzhub DίT = 75 kHz und einer Grenzfre- quenz des Audiosignals von fS = 15 kHz gearbeitet. Damit ergibt sich beim UKW- Hörfunk ein Modulationsindex h = 5 und eine benötigte Bandbreite B10 % = 180 kHz im UKW-Band. Bei UKW-Stereo-Hörfunk inklusive des Datensignals des Radio Data Systems (RDS) liegt die Basisbandbreite bei fS = 60 kHz und die benötigte UKW- Bandbreite bei knapp 400 kHz. Benachbarte UKW-Stereo-Sender müssen daher minde- stens um 400 kHz versetzt senden, um sich nicht gegenseitig zu stören.

Unter Schmalband-FM wird eine Frequenzmodulation verstanden, deren Modulati- onsindex h kleiner als 2 ist, darüber wird als Breitband-FM bezeichnet. Der analoge UKW-Hörfunk zählt zu dem Breitband-FM, Schmalband-FM. Ein Diagramm eines Versuches zeigt ein frequenzmoduliertes Signal sowie gestrichelt das Informationssi- gnal. Der Träger hat im Beispiel die 15-fache Frequenz des Signals, das Signal ist ein einfacher Kosinus. Man erkennt, dass dort, wo der Momentanwert der Spannung des Signals am niedrigsten ist, die Frequenz des modulierten Signals gleichfalls am niedrig- sten ist. Während des Nullpunktdurchlaufs des Informationssignals hat der modulierte Träger dieselbe Frequenz wie der unmodulierte Träger. Die Frequenz des Informations- signals ist davon abhängig, wie oft es pro Sekunde zu einer Frequenzänderung des Trä- gers kommt. Die Amplitude des Signals ist abhängig davon, wie groß die Frequenzän- derung (Flub) ist. Je öfter pro Sekunde sich die Frequenz des Trägers ändert, desto grö- ßer ist die Frequenz des Informationssignals. Je größer der Flub, desto größer ist die Amplitude des Informationssignals. Je größer die Amplitude oder Frequenz des Infor- mationssignals, desto größer ist die benötigte Bandbreite.

Bei einem durchgefuhrten Versuch ist die Änderung der Frequenz des Trägers in Ab- hängigkeit von obigem Signal dargestellt, gestrichelt der unmodulierte Träger. Das un- tere Diagramm zeigt den Phasenwinkel des Trägers in rad. Gestrichelt ist der unmodu- lierte Träger dargestellt. Der Phasenzeiger des Trägers dreht sich fortlaufend, deswegen steigt der Graph auch bei unmoduliertem Signal. Die durchgezogene Linie stellt den Phasenwinkel des modulierten Signals dar. D f T {\displaystyle \Delta Yvarphi _{\mathrm {T} }} ist jedoch nicht proportional zum Momentanwert der Signalspan- nung. D f T {\displaystyle \Delta Yvarphi _{\mathrm {T} }} und D f T {\displaystyle \Delta f_{\mathrm {T} } } sind um 90° verschoben.

Bei einem frequenzmodulierten Signal entstehen Seitenschwingungen im Abstand der Signalfrequenz von der Trägerfrequenz. Theoretisch entstehen unendlich viele Seiten- schwingungen. Praktisch werden Seitenschwingungen kleiner 10 % der Amplitude des unmodulierten Trägers vernachlässigt, daraus ergibt sich die Carson-Formel für die Bandbreite. Die Höhe der einzelnen Seitenschwingungen und damit die Leistungsver- teilung in Abhängigkeit von D f T {\displaystyle YDelta Yvarphi _{\mathrm {T} } } er- mittelt man anhand eines Besselfunktionsdiagramms mit den Modulationsindizes. keit und Ort und die Analogie zwischen Phase und Ort bzw. Frequenz und Geschwindigkeit). Dieses ist der Kern des Zusammenhangs zwischen Frequenz- und Phasenmo dulation. Betrachten wir unter diesem Gesichtspunkt noch einmal die Phase des unmo-

1

1

2

25

In beiden Fällen findet eine Modulation der Phase statt. Allerdings wirkt bei der Frequenzmodulation nicht der Modulator direkt auf die Phase ein, sondern es ist erst das Integral des Modulators zu rechnen. Das Integral hat eine Tiefpasswirkung. Der Pha senhub wird also bei der Frequenzmodulation mit zunehmender Frequenz des Modula

30 tors geringer. Umgekehrt wird der Frequenzhub bei der Phasenmodulation mit niedriger werdender Modulatorffequenz immer geringer. Bei typischen analogen Oszillatoren mit RC- oder LC-Gliedem treten Differentialglei- chungen auf, in denen z. B. Ströme integriert werden. Folglich kommt es mit einfach- sten Mitteln immer zu einer Frequenzmodulation. Eine Veränderung der Stellgröße än- dert dabei kontrolliert die Frequenz und erst mittelbar die Phase. Eine Phasenmodula- tion ist dagegen analog sehr schwierig, da meistens kein direkter Zugriff auf die Pha- senfunktion möglich ist. Bei digitalen Oszillatoren ist beides in einfacher Weise mög- lich, denn es besteht direkter Zugriff auf den Phasenzeiger.

Gegenüber einer Amplitudendemodulation (AM) hat ein FM-Demodulator einen Modu- lationsgewinn - er bewertet das Rauschen weniger als das Nutzsignal. Bei zu geringem Träger-Rausch-Verhältnis (CNR von engl. Carrier to Noise Ratio) verliert die FM die- sen Modulationsgewinn. Es treten durch Phasensprünge Fehler bei der Bestimmung der Momentanfrequenz auf, die sich in kurzen Nadelimpulsen im Signal äußern. Dieser Verlust des Modulationsgewinnes beginnt unterhalb von 12 dB CNR und führt unter- halb 5, 5...9 dB CNR (FM-Schwelle) zu einer starken Verschlechterung des Empfanges. Die„Fischchenbildung“ beim analogen SAT -Empfang ist z. B. auf dieses Problem zu- rückzuführen.

FM ermöglicht eine qualitativ gute, störungsarme drahtlose Übertragung von Hörfunk- programmen. Sie wird auch für den Femsehton und oft auch beim Sprechfunk genutzt. Während bei AM auch durch einen schmalbandigen Filter das Signal nicht ganz vom Rauschen getrennt werden kann, ist es beim FM-Empfanger trotz des breitbandigen Fil- ters möglich, die Qualität wesentlich zu verbessern: Der Demodulator (Ratiodetektor, Koinzidenzdemodulator, PLL-Demodulator) wird kaum durch Amplitudenschwankun- gen beeinflusst. Amplitudenschwankungen werden zusätzlich durch eine Signalbegren- zung (Begrenzerverstärker) reduziert. Die Sendeleistung ist konstant hoch. Frequenz- gangfehler bei der Demodulation ergeben nur geringe nichtlineare Vezerrungen. Gleichkanalstörungen - also im gleichen Frequenzbereich - erzeugen geringere NF- Störungen als bei Verwendung von AM. Schwunderscheinungen haben kaum Einfluss - die Empfangsfeldstärke darf schwanken Durch die erste Anwendung von FM beim UKW -Hörfunk kam es vor allem im eng- lischsprachigen Bereich zur technisch unkorrekten Gleichsetzung der Begriffe FM und UKW.

Das Videosignal auf Videorekordern und der Ton bei Hi fl -Videorekordern ist fre- quenzmoduliert aufgezeichnet. Analoges Satelliten-TV wird ebenfalls ffequenzmodu- liert. Durch periodische Änderung der Frequenz eines Messgenerators (Wobbelgenerator) innerhalb eines bestimmten Bereiches kann die Durchlasskennlinie einer elektrischen Baugruppe (z. B. Bandpass) oder eines ganzen Systems bestimmt werden. Dabei wird der Amplitudengang als Funktion der Frequenz aufgetragen. Dieser Vorgang wird auch als Wobbeln bezeichnet.

Der Tonkanal wird bei analogen Fernsehsendern immer auf einem eigenen Träger fre- quenzmoduliert übertragen. Die Trägerfrequenz liegt 5,5 MHz (CCIR) bzw. 6,5 MHz (OIRT) neben der Bildträgerfrequenz. Im Empfänger wird die Differenzfrequenz durch Mischung von Bild- und Tonträgerfrequenz gewonnen und nach Filterung wie beim UKW-Empfang demoduliert. Die Femsehnorm SECAM verwendet FM zur Übertra- gung der Farbinformation.

Zur Tonübertragung von Rundfunk- und Femsehton sowie in Schulklassen und Konfe- renzräumen werden spezielle FM-Tonübertragungsanlagen für schwerhörige Menschen verwendet.

Durch Frequenzumtastung und ähnliche Verfahren können binäre Informationen kodiert und über größere Strecken (zum Beispiel über Telefonleitungen) übertragen werden. Frequenzmodulierte Rasterung: Rasterverfahren, das mit sehr kleinen Bildpunkten glei- cher Größe arbeitet. Die Bildwiedergabe wird durch unterschiedlich dichte Streuung der Punkte erreicht. Lichte Bildstellen haben wenig Bildpunkte, tiefe Bildstellen mehr. Im Gegensatz dazu steuert das klassische amplitudenmodulierte Raster die Bildwiedergabe durch Variation der Punktgrößen und Rasterwinkel. FM-Raster ermöglichen eine foto- realistische Halbtonwiedergabe und eine detailreichere Wiedergabe, selbst auf Druk- kem mit geringer Auflösung. Moire-Effekte werden vermieden. Auch die Auflösung der Vorlagen kann bei vergleichbarer Ausdruckqualität niedriger sein als bei amplitu- denmodulierten Rastern. Ein„unruhiges“ Bild kann in glatten Flächen, homogenen Ra- sterflächen oder Verläufen entstehen.

Frequenzmodulation (FM) ermöglichte schon bei den frühesten analogen Modular - Synthesizem (um 1960) die Erzeugung recht komplexer Klänge. Beim Umstellen auf Digitaltechnik erkannte man, dass es viel günstiger ist, Phasenmodulation (PM) zu ver- wenden. Das führt zu einem erheblichen klanglichen Unterschied: ein Grund dafür wurde oben schon genannt - es ist der mit steigender Modulatorfrequenz bei FM schwindende Phasenhub, der dagegen bei PM konstant bleibt. Bei PM bleibt also die Stärke der Partialtöne auch bei Änderung der Modulatorfrequenz konstant, das verein- facht die Flandhabung. Die bei FM schwer zu kontrollierenden Frequenzabweichungen treten bei PM nicht auf, da kein direkter Zugriff auf die Frequenz erfolgt. Das macht die Programmierung von Klängen mittels PM verglichen mit FM für den Musiker wesent- lich einfacher. Allerdings wird ein mittels PM erzeugtes Vibrato mit sinkender Fre- quenz schwächer.

Nur aus historischen Gründen wurde die Bezeichnung FM weiterhin verwendet, z. B. bei den Geräten der Firma Yamaha (DX7 usw.). Frequenzmodulation bestimmt oft den Charakter von Klangkörpern und Musikinstrumenten. Bei Lautsprechern ist sie dagegen unerwünscht. Klangkörper, die eine ausgedehnte Fläche haben (z. B. Glocken, Gongs, Röhren, Platten, Bleche), fuhren oft frequenzmodulierte Eigenschwingungen aus: Ein Metallblech hat eine gewisse Steifheit, die es dem Versuch, es zu verbiegen, entgegen- setzt. Durch Wellenform kann diese Steifheit in einer Richtung vergrößert werden (Wellblech).

Breitet sich eine Biegewelle über ein ebenes Blech aus, entstehen und verschwinden solche Wellen-Strukturen periodisch. Eine senkrecht dazu verlaufende höherfrequente Welle einer (weiteren) Eigenschwingung findet nun genau in diesem Rhythmus ein stei- feres oder weicheres Medium vor; die Frequenz dieser Eigenschwingung wird somit aufgrund der daraus resultierenden unterschiedlichen Fortpflanzungsgeschwindigkeit im Rhythmus der Biegewelle moduliert. Ein Beispiel, an welchem sich dies sowohl sta- tisch als auch dynamisch demonstrieren lässt, ist ein von Hand variabel verbogenes Band aus Federstahl (z. B. ein großes Sägeblatt), welches dabei angeschlagen wird.

Saiten von Saiteninstrumenten werden frequenzmoduliert, indem man ihre Länge oder ihre Spannung ändert. Ersteres wird beim Vibrato und dem Glissando bei Streichin- strumenten und auch der Sitar angewendet, letzteres ebenfalls bei der Sitar, besonders aber bei Gitarren. Die Saitenspannung wird verändert, indem sie auf dem Griffbrett zur Seite gezogen werden oder indem bei elektrischen Gitarren der Saitenhalter bewegt wird (siehe hierzu Tremolo (Gitarre)). Saiten besitzen darüber hinaus eine amplituden- abhängige Eigenfrequenz, die besonders bei darmbespannten Violinen und Saitenin- strumenten mit geringer Saitenspannung bzw. großer Schwingungsamplitude klanglich zum Tragen kommt.

Unter anderem bei Flöten ist die Tonfrequenz vom Anblasdruck abhängig; dadurch kann ebenfalls eine Frequenzmodulation erzeugt werden, welche allerdings zusätzlich eine Amplitudenmodulation (Tremolo) aufweist.

Frequenzmodulation kommt bei Lautsprechern vor, die zugleich hohe Frequenzen und tiefe Frequenzen mit hoher Amplitude wiedergeben; eine Frequenzmodulation der ho- hen Frequenzen entsteht hierbei durch die sich im Rhythmus der tiefen Frequenz auf den Hörer zu- und wegbewegende Membran (Dopplereffekt). Der Effekt ist uner- wünscht und kann durch Zwei- oder Mehrwegeboxen oder durch einen Lautsprecher mit großem Membrandurchmesser vermieden werden.

Kurzbezeichnung von FM-Arten

Fl - Frequenzmodulation; ein einziger Kanal, der quantisierte oder digitale Information enthält (ohne Verwendung eines modulierenden Hilfsträgers)

F2 - Frequenzmodulation; ein einziger Kanal, der quantisierte oder digitale Information enthält (unter Verwendung eines modulierenden Hilfsträgers)

F3 - Frequenzmodulation; ein einziger Kanal, der analoge Information enthält 78. Phasenregelschleife (PLL)

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens enthaltend eine Phasenregelschleife (PLL).

Eine Phasenregelschleife, auch als englisch phase-locked loop (PLL) bezeichnet, ist ei- ne elektronische Schaltungsanordnung, die die Phasenlage und damit zusammenhän- gend die Frequenz eines veränderbaren Oszillators über einen geschlossenen Regelkreis so beeinflusst, dass die Phasenabweichung zwischen einem äußeren Referenzsignal und dem Oszillator oder einem daraus abgeleiteten Signal möglichst konstant ist. Anwen- dungen findet die PLL in der Nachrichten-, Regel- und Messtechnik wie beispielsweise zur Realisierung von Filtern, zur Modulation und Demodulation, in digitalen Kommu- nikationssystemen zur Taktrückgewinnung und Synchronisation.

Erste Erwähnungen von analogen Phasenregelschleifen finden sich in britischen Arbei- ten aus den frühen 1920er Jahren. Die Schaltungen wurden mit Elektronenröhren reali- siert und dienten in Folgejahren als Schaltungsteil in der damals aufkommenden Funk- technik und wurden unter anderem in Überlagerungsempfängern eingesetzt. Ziel war dabei die Minimierung der notwendigen Abstimmkreise und deren Stabilisierung im Betrieb.

Wichtige Arbeiten zu den Grundlagen, ausgehend von der Theorie zu rückgekoppelten Verstärkern, lieferten in den 1930er Jahren die Arbeiten von Hendrik Wade Bode mit dem Bode-Diagramm und Harry Nyquist mit dem Stabilitätskriterium von Nyquist. Darauf basierend wurden Phasenregelschleifen zunehmend auch in der Regelungstech- nik zum Steuern von Aktoren wie Servomotoren verwendet. Bereits Anfang der 1950er Jahre wurden Phasenregelkreise zur Horizontalsynchronisation von Fernsehgeräten verwendet und es wurden erste Phasenregelschleifen zum Empfang der aufkommenden UKW-Radioprogramme im Rahmen der Frequenzdemodulation eingesetzt. [5] Es folg- ten Anwendungen im Bereich der Femsehtechnik, insbesondere im Bereich des Farb- fernsehens nach der NTSC-Femsehnorm. Mitte der 1960er Jahre setzte eine starke Verbreitung der PLL im Bereich der Konsu- melektronik wie den Radio- und Fernsehgeräten ein. Die in der Anfangszeit diskret rea- lisierten analogen Regelschleifen wurden zunehmend in integrierten Schaltungen (IC) zusammengefasst und von Firmen wie Signetics als fertige Bauelemente angeboten. Daraus entwickelten sich im Elektroniksektor populäre Phasenregelschleifen, wie die von RCA entwickelte PLL-Schaltung 74 4046. Dieser TTL-Schaltkreis wird heute in CMOS-Technik (die schnelle, TTL-kompatible Variante ist der 74HCT4046 und die langsame stromsparendere ist der CD4046) realisiert. Der IC fand große Verbreitung und wird auch noch im Jahr 2016 von verschiedenen Herstellern angeboten.

Anfang der 1980er Jahre wurden die ersten digitalen Phasenregelschleifen entwickelt, die für den Bereich der digitalen Signalverarbeitung und der damit verknüpften Syn- chronisation von Sender- und Empfangsgeräten wesentlich sind. Phasenregelschleifen wurden auch verschiedenartig im Aufbau modifiziert, wie es beispielsweise die Costas Loop zur Demodulation von digitalen Übertragungen darstellt.

Aufbau einer Phasenregelschleife:Die einfachste Form einer PLL besteht aus vier Komponenten in einem Regelkreis: Einem Phasenvergleicher, der auch Phasenkompa- rator oder Phasendetektor genannt wird, (hier versehen mit einem Link zur Schaltung eines Phase-Frequency-Detektors, der unten erläutert ist). Dieser vergleicht an seinen beiden Eingängen die Phasenlage des Eingangssignals Y(s) mit der Phasenlage des ge- steuerten Oszillators (die gegebenenfalls durch n geteilt ist) und liefert ein Ausgangssi- gnal E(s) das in der Regelungstechnik auch als Fehlersignal (Error-Signal) bezeichnet wird. Nach einer Filterung wird E(s) zu einem analogen Signal, welches dem Phasen- fehler entsprechen soll.

Einem Schleifenfilter mit der Übertragungsfunktion F(s), dem das Fehlersignal E(s) zu- geführt wird und der an seinem Ausgang das Steuersignal oder Control-Signal C(s) lie- fert. Das Schleifenfilter ist zusammen mit einem Faktor k der Regler.Einem steuerbaren Oszillator. In analogen Schaltungen meist in Form eines spannungsgesteuerten Oszilla- tors (engl voltage controlled oscillator, VCO) realisiert, der beispielsweise durch eine Kapazitätsdiode in seiner Frequenz verändert werden kann. Bezüglich der Phase, die es zu regeln gilt, ist ein VCO ein Integralglied Ko/s, denn eine Phase ist das Integral einer Frequenz. Der Faktor Ko=2p*Dίo/DIIO heißt VCO-Steilheit. Zur vollständigen Model- lierung liegt vor diesem Integralglied ein Addierglied, an dem die erwartete Steuer- spannung des VCO zu subtrahieren ist.

Das Schleifenfilter liefert dann die VCO-Steuerspannung, während sich am Integral- glied für den eingeschwungenen statischen Fall die Spannung null einstellt. Das muss so sein, denn ein Integralglied kommt erst zur Ruhe, wenn seine Eingangsgröße null ist. - Bei digitalen PLLs sind numerisch gesteuerte Oszillatoren (engl numerically control- led oscillator, NCO) üblich. Dieser Oszillator kann über das Steuersignal C(s) in seiner Frequenz, die dem Phasendetektor entweder direkt oder über einen zusätzlichen Fre- quenzteiler zugeführt wird, in bestimmten Grenzen beeinflusst werden.

Einem Frequenzteiler mit dem Teilerfaktor n, der die Ausgangsphase O(s) des Oszilla- tors durch n teilt und so die rückgekoppelte Phase Z(s) an den Phasenvergleicher fuhrt. Die Übertragungsfunktion des Frequenzteilers heißt Z(s)/0(s)= 1/n. Alle Phasen wer- den aus mathematischen Gründen in der Einheit rad (Radiant) angegeben.Im einge- schwungenen Zustand ergibt sich mit dieser Anordnung eine Nachführung der Oszilla- torfrequenz, so dass die Phase Z(s) der Referenzphase Y(s) folgt. Je nach Anwendungs- fall wird als Ausgang der PLL entweder das Fehlersignal E(s), das Steuersignal C(s) oder direkt die vom gesteuerten Oszillator erzeugte Schwingung mit deren Phase O(s) betrachtet. Die drei Grundkomponenten werden je nach Anwendung verschieden aus- gewählt und bestimmen das dynamische Betriebsverhalten des Regelkreises.

Als Phasendetektor kommen bei analogen PLLs Analogmultiplizierer zur Anwendung, beispielsweise eine Gilbertzelle, die im Bereich kleiner Fehlerwerte, bei E(s) nahe dem Wert 0, ein angenähert lineares Übertragungsverhalten aufweist. Die Gilbertzelle ist auch bei digitaler Übersteuerung funktional, obwohl sie dadurch zum XOR-Glied wird. Bei digitalen PLLs kommen Exklusiv-Oder-Gatter oder sequentielle Logikschaltungen in Form von Flipflops zur Anwendung. Sehr verbreitet, besonders auch in analogen PLLs, sind Vorwärts-Rückwärtszähler mit 1 bit Speichertiefe, die nicht nur die Phase hochlinear vergleichen, sondern für den Fall, dass die PLL noch nicht eingerastet ist, auch die Schlupffichtung anzeigen.

Durch die Information über die Schlupfrichtung zieht der Regler die VCO-Frequenz so weit heran, dass der Phasenregelkreis einrasten kann. Ohne solch einen Phase- Frequency-Detektor (PFD) ist das Fangen durch langsames Sweepen des VCOs er- reichbar. Die Art des Phasendetektors bestimmt also das sogenannte Einrastverhalten der PLL. Wenn die Eingangsfrequenz in einem unerwünschten Fall neben der durch n geteilten Frequenz des Oszillators bleibt, herrscht permanenter Phasenschlupf mit unru- higem Verhalten. Das PLL-System ist dann nicht eingerastet.

Unter dem Begriff„Ordnung einer PLL“ behandeln einige traditionelle PLL -Bücher die Frage nach dem geeigneten Regler. Eine Ordnungszahl ist hier anders definiert als beim Filter. Der lineare Schleifenfilter hat unter Einbeziehung des Ripple-Filters auch ein Tiefpassverhalten, aber die Eckffequenz ist relativ hoch. Zur besseren Übersicht fehlt deshalb in vereinfachten Schaltungen der Kondensator des Ripple-Filters, und der zu- gehörige Pol spielt zunächst keine Rolle. Auch ein Totzeitglied, wie es im PFD ent- steht, bleibt vorerst unberücksichtigt.

Die Übertragungsfunktion der offenen Schleife G(s) (engl open-loop transfer function) besteht aus dem Produkt der Übertragungsfunktionen, die in der Schleife liegen: G ( s ) = k - F ( s ) - K O / n s {\displaystyle G(s)={\ffac (k\cdot F(s)\cdot K_{0}/n} {s}} } Speziell für F(s)=l folgt daraus G(s) =toAs/s, wobei nun der Zähler w As=k Ko/n einer primären Zielvorgabe für die O-dB-Bandbreite entspricht, nach der sich k zu richten hat. k ist hier in Volt/rad definiert. w As/s bestimmt nun die Hauptasymptote im Bodedia- gramm, die mit -20 dB/Dekade fallt. Für eine der möglichen Übertragungsfunktion der geschlossenen Regelschleife H(s)= 0(s)/Y(s) (engl closed-loop transfer function) folgt: H ( s ) = 0 ( s ) Y ( s ) = n · G ( s ) 1 + G ( s ) {\displaystyle H(s)=(\frac {0(s)} {Y(s)} }={\frac {n\cdot G(s)}{ l+G(s)} }} Ein Stück oberhalb von w As behält H(s) stets den Amplitudengang -20 dB/Dekade, unabhängig von der Wahl der folgenden Regler.

Bei einer PLL erster Ordnung wird als Besonderheit das Fehlersignal E(s) direkt dem gesteuerten Oszillator zugeführt, es gilt also E(s) k F(s) = C(s) mit F(s)=l und mit ei- nem konstanten Faktor k, der nur eine Verstärkung oder Dämpfung ausdrückt. So ein Proportionalregler mit dem Faktor k, der nur in engen Grenzen frei wählbar ist, muss die VCO-Steuerspannung erzeugen können. Das schafft er für den gewünschten einge- schwungenen Fall nur, wenn der Phasenvergleicher einen Wert liefert, der noch auf sei- ne begrenzte Kennlinie passt. Anderenfalls kann die PLL niemals einrasten. Deshalb hat eine PLL erster Ordnung nur für den Fall eine praktische Bedeutung, dass ein hard- waremäßig vorhandenes Addierglied einen passenden vorher bekannten Wert zu E(s) k hinzufügt.

Stehen solche Werte nicht zur Verfügung, ist ein Integralregler erforderlich, genauer ein Proportional-lntegral-Regler, der dafür sorgt, dass der Fehler E(s) am Phasenverglei- cher null werden kann. Diesem Vorteil steht der Nachteil gegenüber, dass das erste Ein- schwingen langsamer ist und dass bei der Integration wegen eines Kondensators mehr Chipfläche benötigt wird. Zur Stabilisierung der Regelschleife geht der Proportional - Integralregler ab einer bestimmten Frequenz in das Verhalten eines Proportionalreglers über. Das ist der PI-Regler F(s) =l+w PI/s, wie er in einer sogenannten PLL zweiter Ordnung zum Einsatz kommt. wRI muss kleiner w As sein. Da F(s) nun für Frequenzen größer w PI wieder die Verstärkung 1 annimmt, behält G(s) seinen 0-dB-Durchgang na- he der gewünschten Bandbreite toAs, wobei wieder der O-dB-Schnittpunkt der Haupt- asymptote im Bodediagramm Maßstab ist. Durch das PI-Glied kommt eine nun doppelt so steile Asymptote hinzu, welche die Hauptasymptote bei wRI schneidet und die 0-dB- Achse bei wh =wA5/(2*z). Hierbei sind Dämpfungsfaktor z und Eigenfrequenz wh Ele- mente eines Polynoms zweiter Ordnung, welches sich im Nenner von H(s) ergibt. Um den primären Entwurfsparameter w As bei allen weiteren Betrachtungen zu bewah- ren und um eine Zielvorgabe nicht aus den Augen zu verlieren, ist es vorteilhaft, wh in weiteren Gleichungen zu eliminieren mit wh =wA5/(2*z).

Wer die Definition der Ordnungszahl einfach halten will, kann sich auf die Zahl der In- tegralglieder beschränken, die in der Schleife liegen. Befindet sich beispielsweise vor dem PI-Regler noch ein PI-Regler, resultiert eine PLL dritter Ordnung mit folgender Übertragungsftmktion der offenen Schleife :G ( s ) = w A s s - ( 1 + w P I s ) 2

Nach dem allgemeinen Nyquistkriterium ist das System stabil. Der erste PI-Regler nimmt im eingeschwungenen statischen Fall an Eingang und Ausgang den Wert null ein. PLLs dritter Ordnung ermöglichen es, Phasenfehler bei konstanter Chirprate zu verkleinern. In den unten angegebenen Literaturquellen werden die verschiedenartigen Typen von PLLs je nach Ordnung und innerhalb einer Ordnung in unterschiedlichen Typen klassifiziert und tabelliert.

Die Abweichung der Eingangsfrequenz von der von dem steuerbaren Oszillator erzeug- ten Frequenz fc beschreibt verschiedene Betriebsbereiche einer PLL, die für das Verhal- ten des Regelkreises wesentlich sind. Es wird dabei zwischen dem eingerasteten Be- triebsbereich (engl lock) der PLL, in dem stabiles Regelverhalten vorliegt, dem Ein- rastverhalten, wo die Regelschleife möglicherweise in den eingerasteten stabilen Be- triebszustand übergeht, und dem nicht eingerasteten, freilaufenden Betriebszustand un- terschieden.

In einem Beispiel sind die vier wesentlichen Betriebsbereiche angegeben, wobei die Abweichung der Eingangsffequenz durch eine horizontale, symmetrische Abweichung von der zentrischen Lokalfrequenz fc symbolisiert ist. Die genauen Grenzwerte hängen von der Art des Phasendetektors und des Schleifenfilters ab. Die Bereiche bedeuten: Haltebereich (engl hold-in ränge): Ist der größte Bereich, die eingerastete Phasenregelschleife kann in diesem Bereich bei langsamer und nicht sprunghafter Änderung der Eingangsfrequenz folgen. In diesem Fall liegt Regelverhal- ten vor. Ziehbereich (engl pull-in ränge): In diesem Bereich kann die PLL aus dem nicht eingerasteten Zustand nur mit Überspringen einer oder mehrerer Perioden in den eingerasteten Zustand überwechseln. Ausrastbereich (engl pull-out ränge): Bei Anlegen eines Frequenzsprunges am Eingang an die eingerastete PLL kann sie in diesem Be- reich ohne Überspringen einer Periode folgen. Auch in diesem Fall liegt Regelverhalten vor .Fangbereich (engl lock-in ränge): In diesem Bereich kann die PLL aus dem nicht eingerasteten Zustand direkt ohne Überspringen einer Periode in den eingerasteten Zu- stand überwechseln. Dieser Bereich ist der schmälste Bereich um die Oszillatorfre- quenz.Außerhalb des Haltebereichs liegt der nicht stabile freilaufende Betrieb vor, in dem weder ein Einrasten noch ein Halten eines zuvor erfolgten eingerasteten Betriebs möglich ist.

Digitale PLL : Phasenregelschleifen können im Rahmen der digitalen Signalverarbei- tung auch als sogenannte digitale PLL, abgekürzt DPLL, realisiert werden. Wesentlich dabei ist der Übergang von einem zeitkontinuierlichen System zu einem zeitdiskreten System, und an die Stelle der kontinuierlichen Laplace-Transformation zur Analyse tritt die diskrete Z-Transformation. Ein Vorteil von DPLLs besteht in der leichteren Repro- duzierbarkeit.

Die Klassifizierung, ab welchem Umfang eine PLL als DPLL zu werten ist, ist in der Literatur nicht einheitlich. So kann nur ein Teil der PLL, beispielsweise nur das Schlei- fenfilter, als Digitalfilter realisiert werden. Typischerweise werden dabei die Entwurfs- methoden einer analogen PLL als Grundlage für die DPLL verwendet. Bei All -DPLLs wird die komplette Regelschleife inklusive NCO in digitalen Schaltungen aufgebaut. Sogenannte Software-PLLs, die die Regelschleife als ein sequentielles Programm in ei- nem digitalen Signalprozessor realisieren und meist bei niedrigen Frequenzen Anwen- dung finden, zählen ebenfalls zu dem Bereich der DPLLs. Bei Software-PLLs werden auch komplexe Phasendetektoren basierend auf der Hilbert-Transformation eingesetzt. Unterschiede gegenüber anderen Oszillatorbauweisen: Vorteil: Obwohl die erzeugte Frequenz (in Stufen) variiert werden kann, besitzt sie die gleiche relative (Langzeit- )Stabilität wie der Referenzoszillator, der auf einer festen Frequenz arbeiten und daher sehr frequenzstabil sein kann. Nachteil: Erhöhter technischer Aufwand im Vergleich zu anderen Oszillatorschaltungen.

PLLs umfassen ein breites Anwendungsgebiet und im folgenden Abschnitt sind bei- spielhaft einige Anwendungsbereiche beschrieben. Betrachtet man Frequenz und Phase des Referenzsignals als Eingangsgröße und das Oszillatorsignal als Ausgangsgröße, so verhält sich die beschriebene Anordnung ähnlich wie ein elektrischer Bandpass, wobei die Übertragungseigenschaften im Wesentlichen durch die Dimensionierung des Schlei- fenfilters festgelegt sind. Von besonderer Bedeutung bei der Anwendung der PLL als Bandpassfilter ist die Tatsache, dass dabei eine automatische Nachführung auf die Fre- quenz des Eingangssignals erfolgt. Gleichzeitig besteht bei dieser Anordnung die Mög- lichkeit, sehr kleine Nachführbandbreiten zu realisieren. Sie eignet sich daher in beson- derem Maße zur Regeneration von verrauschten Signalen veränderlicher Frequenz.

Mit dem Referenzsignal als Eingangsgröße und der Oszillator-Stellspannung als Aus- gangsgröße eignet sich die PLL zur Anwendung als FM-Demodulator, solange die Mo- dulationsfrequenz kleiner als die Nachführbandbreite bleibt. Die oben beschriebene Fil- terwirkung der PLL bleibt dabei erhalten, so dass auch noch extrem gestörte Signale demoduliert werden können.

Benutzt man die Ausgangsspannung des Phasendetektors als Ausgangssignal, dann lässt sich die PLL als Demodulator für phasenmodulierte Signale einsetzen. In diesem Fall muss die Nachführbandbreite kleiner als die niedrigste Modulationsfrequenz ge- wählt werden. PLL-basierte Phasendemodulatoren hatten in der Ära der analogen Signalverarbeitung zeitweise Bedeutung in der Satellitenkommunikation erlangt.

Analog zu den Funktionen als Demodulator lässt sich die PLL als PM- und FM- Modulator einsetzen. Ein PLL-System kann mit einem wählbaren Hub frequenzmodu- liert betrieben werden. Aber ohne kompensatorische Maßnahmen ist die Modulation durch das System gefiltert. Phasenrauschen eines PLL-Oszillators im KW -Bereich. Bei einem Quarzoszillator wäre die entsprechende Kennlinie eine fast vertikale Linie am linken Bildrand.

Ein Anwendungsbereich der PLL ist die Frequenzsynthese. Das nebenstehende Bild zeigt ein Blockschaltbild eines PLL-basierten Frequenzsynthesizers. Ein VCO (span- nungsgesteuerter Oszillator) erzeugt das Ausgangssignal. Im Rückführungszweig der PLL ist ein Frequenzteiler vorgesehen, der die VCO-Frequenz vor dem Phasendetektor um einen einstellbaren Faktor herunterteilt. Das Referenzsignal der PLL wird typi- scherweise von einem genauen und stabilen Quarzoszillator bereitgestellt.

Im eingerasteten Zustand wird der VCO auf eine Frequenz geregelt, die um den Teiler- faktor größer ist als die Frequenz des Referenzsignals. Durch Ändern des Teilerfaktors lässt sich somit die Frequenz des VCOs auf genau ganzzahlige Vielfache der Referenz- frequenz einstellen. Ein wesentlicher Aspekt dabei ist, dass die Genauigkeit und Stabili- tät der festen Referenzfrequenz auch für die einstellbare Ausgangsfrequenz gelten.

Die beschriebene Anordnung lässt sich mit den heute verfügbaren Bauteilen zu gerin- gen Kosten auf kleinstem Raum aufbauen und findet beispielsweise in Mobiltelefonen, Radios, Fernsehtunem und Funkgeräten massenhafte Anwendung. Typische Ausgangs- frequenzen liegen hier bei einigen hundert MHz, typische Referenzfrequenzen bei eini- gen 100 kHz. Frequenzteiler und Phasendetektor sind dabei meist in einer integrierten Schaltung realisiert, während der VCO und das Schleifenfilter oft diskret aufgebaut werden.

Wichtige Aspekte beim Entwurf eines PLL-Frequenzsynthesizers sind die spektrale Reinheit des Ausgangssignals, die Frequenzauflösung und die für eine Frequenzände- rung benötigte Einrastzeit. Die spektrale Reinheit wird wesentlich von den Eigenschaf- ten des VCOs, aber auch von den Rauscheigenschaften der übrigen Komponenten so- wie von einem zweckmäßigen Aufbau (Abschirmung, Filterung) bestimmt. Die Frequenzauflösung ist beim oben beschriebenen System gleich groß wie die Refe- renzfrequenz. Die Einrastzeit hängt wesentlich von der Regelbandbreite ab, die aber nicht frei wählbar ist, sondern im Hinblick auf die benutzte Referenzffequenz und die spektrale Reinheit des Ausgangssignals optimiert werden muss. Bei der Dimensionie- rung praktischer Systeme zeigt sich, dass eine hohe Frequenzauflösung im Widerspruch zu den Forderungen nach spektraler Reinheit und kurzer Einrastzeit steht.

Dieser Widerspruch ist durch Verwendung eines Frequenzteilers, der die VCO- Frequenz durch gebrochene Faktoren dividiert, auflösbar. Dazu muss der Teilfaktor zeitlich so variiert werden, dass sich im Mittel der gewünschte gebrochene Einstellwert ergibt. Am Ausgang des Phasendetektors entsteht dabei allerdings eine Störgröße, die mit geeigneten Gegenmaßnahmen kompensiert oder gefiltert werden muss (z. B. Delta- Sigma- Verfahren). Mit derart aufgebauten PLL-Synthesizem lassen sich beliebig feine Frequenzauflösungen bei gleichzeitig kürzesten Einrastzeiten und sehr hoher spektraler Reinheit realisieren.

PLLs eignen sich zur Erzeugung von stabilen Frequenzen bis in den GHz-Bereich (Funktechnik), Erzeugung von programmierbaren Frequenzen, Erzeugung von hochfre- quenten Takten für Rechner sowie Synthesizer-Tuner, da mit Hilfe dieser Schaltungs- technik ein sehr exaktes Anwählen bzw. Ansteuern von Frequenzen möglich ist. Einer- seits ist es möglich, mit einer festen Referenzfrequenz (Quarz-Oszillator) und einem va- riablen Feedback-Frequenzteiler eine präzise Ausgangsfrequenz zu erzeugen, was dem genannten Synthesizer-Prinzip entspricht. Andererseits kann man eine variable Fre- quenz mittels fest eingestelltem Feedback -Frequenzteiler mit einem fixen Faktor multi- plizieren.

Neben der Anwendung als Frequenzerzeuger werden PLL-Schaltungen vor allem zur Demodulation von ffequenz- oder phasenmodulierten Signalen, für Taktsynchronisation und Taktrückgewinnung eingesetzt. Je nachdem, für welche Anwendung die PLL verwendet wird, unterscheidet sich auch, wo das Ausgangssignal abgegriffen wird. Die Frequenz des Oszillators wird z. B. bei Frequenz-Modulatoren verwendet, bei der Verwendung als Demodulator eines FM- Signals die Abstimmspannung des VCO.

Einige Datenströme, besonders serielle, synchrone Datenströme (wie z. B. der Daten- strom des Magnetlesekopfes einer Festplatte), werden ohne getrenntes Taktsignal ge- sendet bzw. aus dem Speichermedium ausgelesen. Zur Taktrückgewinnung aus dem empfangenen Signal ist eine spezielle Leitungscodierung der zu übertragenden Nutzda- ten notwendig, wie das beispielsweise der Manchester-Code darstellt.

Taktsynchronisation: Wenn parallel mit dem Datenstrom ein Takt gesendet wurde, muss dieser wiederaufbereitet werden, bevor er zur Verarbeitung der Daten genutzt werden kann. Das kostet jedoch einige Zeit, so dass Takt und Daten zunächst nicht mehr synchron zueinander sind. Die PLL sorgt dafür, dass der wiederaufbereitete Takt und der ursprüngliche Takt (und somit die Daten) wieder synchron sind.

Eine PLL wird auch verwendet, um bei aktiven Systemen zur Leistungsfaktorkorrektur die Phasenlage aus den Außenleiterspannungen zu gewinnen. Mit Hilfe des Phasenwin- kels kann eine Regelung vorgenommen werden, die dafür sorgt, dass die Außenleiter- ströme die gleiche Phasenlage wie die Phasenspannungen haben. Damit kann der Grundschwingungsleistungsfaktor auf Werte knapp unter 1 gebracht werden und das Leitungsnetz wird nicht mit Blindleistung belastet.

Eine Delay-Locked Loop (DLL) ist ähnlich wie eine PLL aufgebaut, weist aber keinen eigenen Oszillator auf und arbeitet stattdessen mit einem einstellbaren Laufzeitglied. Im Bereich der digitalen Frequenzsynthese spielt das Element der Direct Digital Synthesis (DDS) eine Rolle, die im Rahmen einer digitalen PLL als NCO Anwendung findet. Die Frequency Locked Loop (FLL) weist einen modifizierten Diskriminator auf und wird in der Literatur zur Gruppe der PLLs gezählt. 79. Near Field Communication

Es folgen weitere Ausfuhrungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens eine Einrichtung und/oder Vorrichtung zur Near Field Com- munication (NFC) und/oder RFID enthaltend.

Die Near Field Communication (dt. Nahfeldkommunikation, abgekürzt NFC) ist ein auf der RFID-Technik basierender internationaler Übertragungsstandard zum kontaktlosen Austausch von Daten per elektromagnetischer Induktion mittels loser gekoppelter Spu- len über kurze Strecken von wenigen Zentimetern und einer Datenübertragungsrate von maximal 424 kBit/s.

Bisher kommt diese Technik vor allem im Bereich Micropayment - kontaktlose Zah- lungen kleiner Beträge - zum Einsatz. In Deutschland wird die Technik beispielsweise von den Sparkassen, unter dem Namen Girogo, zur Zahlung von Summen bis zu 25 Euro angeboten. Viele Hochschulen nutzen NFC-Chips in Studentenausweisen zur Zahlung kleinerer Beträge. Einige Kreditkarten haben eine kontaktlose Bezahlfunktion, die bei Beträgen bis zu 50 Euro, in der Schweiz bis 40 Franken, Zahlungen ohne Einga- be einer PIN ermöglicht. Jede Bank und jeder Kartenanbieter legt dieses Limit selbst fest, daher ist bei einigen Kreditkarten bereits unter 25 Euro eine PIN bei der Zahlung nötig. Viele Geräte für das Bezahlen mit Karte sind seit Frühjahr 2015 auch mit NFC- Lesegeräten ausgestattet und erlauben so das Bezahlen in Geschäften aller Art, von Tankstellen bis zu Discountern. Weitere Anwendungen sind beispielsweise die Über- tragung von Bluetooth- oder WLAN-Authentifizierungsdaten zum Aufbau einer Kom- munikation, oder das Aufrufen von Weblinks, wenn im NFC-Chip eine URL im ent- sprechenden Format hinterlegt wurde. Neue Anwendungsmöglichkeiten werden auch im Smart Home und Internet der Dinge erschlossen.

Die Übertragung erfolgt entweder verbindungslos (mit passiven HF-RFID-Tags nach ISO/IEC 14443 oder ISO/IEC 15693) oder verbindungsbehaftet (zwischen gleichwerti- gen aktiven Transmittern). Die verbindungslose Nutzung ist nach üblicher Definition (beispielsweise in ISO/IEC 15408, den„Common Criteria“) nicht sicher gegen Angriffe von Driten. Die verbindungsbehaftete Lösung soll für Bezahlvorgänge sicher sein. Die mindestens zu berücksichtigenden Sicherheitsfunktionen werden auch in die Hardware der Mobilgeräte integriert. Erfolgte Qualifizierungen ausgeführter Geräte nach ISO/IEC 15408 sind bisher nicht publiziert.

Die ersten Entwürfe wurden 2002 gemeinsam von NXP Semiconductors (vormals Philips) und Sony veröffentlicht. Die Entwicklung von mehreren internationalen Nor- men (mehrere Dokumente ISO/IEC 13157, -16353, -22536, -28361, abschließend ver- abschiedet oder im Status der Abstimmung) ist nicht abgeschlossen. Der Stand der Be- arbeitung ist bei der ISO veröffentlicht.

An einer Lösung mit dem Namen ERGOSUM wird seit 2008 in Frankreich gearbeitet. Dort kooperieren die Mobilfunkanbieter Bouygues Telecom, Orange und SFR mit Ban- ken wie Cofidis und Banque Accord sowie Handelsketen wie Auchan, Carrefour und Fnac, um die mobile Bezahlung auf Basis von NFC großflächig einzuführen. In Asien oder Polen wird NFC für Bezahldienste bereits häufig eingesetzt. Eine nicht mehr ganz aktuelle Meldung zu diesem Vorgehen stammt aus dem Oktober 2009.

NFC soll den Austausch verschiedener Daten, wie zum Beispiel Telefonnummern, Bil- dern, MP3-Dateien oder digitaler Berechtigungen, zwischen zwei kurzzeitig ohne be- sondere Anmeldung gepaarten Geräten ermöglichen, die nahe aneinander gehalten wer- den, ohne dass es Fehler bei der wechselweisen Zuordnung der Paare gibt. Mit NFC sollen Anforderungen unterstützt werden, bei denen die Zuordnung der gepaarten Gerä- te ohnehin durch den oder die Benutzer erfolgt, die Personalisierung des eingebuchten Mobiltelefons die erste Authentifizierung bietet, die erneute Authentisierung des Benut- zers je nach Kritikalität der Transaktion eingebunden werden kann, beide beteiligten Geräte oder das Mobilgerät aktiv senden können (Verbindung kann aufgebaut werden), bestimmte komplexe Sicherheitsmerkmale der Übertragung das unerwünschte Mitlesen ausschließen sollen, unbeteiligte Drite nicht durch einfaches Mithören Informationen abschöpfen können und das Mobiltelefon als ohnehin vorhandenes Gerät als Lesegerät verwendet werden soll. Die Technik hinter NFC basiert auf radio-ffequency Identification (RFID). RFIDs er- möglichen einem Lesegerät auf Basis von Funkwellen, einen passiven elektronischen Transponder (Sender/Empfänger) für die Identifizierung, Authentifizierung und Tracking auszulesen. NFC kann mit aktiven Geräten als Zugriffsschlüssel an Terminals auf Inhalte und für Dienste verwendet werden, wie beispielsweise Bargeldloser Zah- lungsverkehr (Girogo, Paypass, Visa payWave, Apple Pay, Google Pay etc.), papierlose Eintrittskarten (E-Ticket), Abrechnung von Beförderungsdienstleistungen (zum Bei- spiel Touch and Travel), Smart Posters in der Außenwerbung, Online-Streaming oder Herunterladen von Inhalten, Zugangskontrolle, Wächterkontrollsysteme zum Nachweis der Anwesenheit eines NFC -Lesegerätes an einem bestimmten Kontrollpunkt mit mon- tiertem oder geklebtem NFC-Tag., Steuerung des Smartphones durch im Handel ver- fügbare NFC-Tags (z. B. SmartTags von Sony, TecTiles von Samsung, oder universell einsetzbare BluewaveTags) Onlinebanking, Zwei-Faktor-Authentisierung nach dem U2F-Standard der FIDO-Allianz.

Für eine problemlose Verwendung reichen jedoch die in den genannten Normen spezi- fizierten technischen Merkmale allein kaum aus. Über Vorschläge zur organisatorischen Einbettung ist bisher nichts publiziert. Von Samsung und Nokia (Nokia 6210 und Nokia C7) werden seit 2008 NFC-fähige Geräte angeboten. Im Jahr 2013 existierten weltweit über 100 NFC-fahige Mobilfunkgerät-Modelle. Weitere Hersteller, insbesondere von Android-Geräten, sind seither gefolgt. Im September 2014 hat Apple das iPhone 6 und die Apple Watch vorgestellt, die mit einem NFC-Modul ausgestattet sind.

Allgemeiner Vorteil von NFC bei Mobilgeräten ist, dass damit auch bei ausgeschalteten Geräten oder solchen mit leerem Akku eine Kommunikation via NFC möglich ist. Eine Bezahlfunktion mit einem Mobiltelefon in bestehende SIM-Karten-Infrastrukturen zu integrieren ist ein für die Anbieter unwirtschaftliches Modell, da diese SIM-Karten in der Regel von Netzbetreibem verwaltet werden, die Bezahlanwendung aber von einer Bank herausgegeben wird. Zudem stellt die Bank gegebenenfalls zusätzliche Sicher- heitsanforderungen an die Hard- und Software. Im Oktober 2012 startete 02 als erster der Netzbetreiber den Handypayment-Dienst mpass auf NFC-Basis. Verschiedene wei- tere Lösungsansätze haben MasterCard, Visa und PayPal auf der MWC 2013 vorge- stellt.

Eine aufwendige Anforderung stellt die Bereitstellung der notwendigen Software mit verschiedenen Mobiltelefonen dar. Aus Sicht nach Stand der Technik 2009 (mit Verab- schiedung der Common Criteria ISO/IEC 15408) muss die Software für jedes zukünftig auf den Markt kommende Mobilgeräte-Modell und im jeweiligen Betriebssystem (Apple iOS, Android, Symbian, Bada etc.) angepasst werden. Jede dieser Anpassungen muss von den unterstützenden Banken oder einem Institut für die Kombination von Mobilgerät, Anpassung und Bank zertifiziert werden.

Mittlerweile können mit Hilfe des Smartphones und dessen NFC-Funktionalität bei ver- schiedenen Herstellern (BMW, Hyundai, Mercedes) die Autotüren entriegelt und per- sönliche Einstellungen der Komfortoptionen im Automobil (Sitz- und Spiegelpositio- nen, Senderwahl) vorgenommen werden. Eine erweiterte Personalisierung wird durch das Bluetooth- oder WiFi-Pairing mittels NFC erreicht. Dabei kann, beispielsweise über einen NFC-Touchpoint in der Mittelkonsole eines Autos, das eigene Smartphone eine Bluetooth- oder WLAN-Verbindung mit dem Fahrzeug hersteilen.

Mit Smartposter sind im Kontext von NFC Schautafeln gemeint, in welche NFC- Sender/Empfanger („tags“) physisch integriert sind. Benutzer können so z. B. mittels eines NFC-fähigen Smartphones mit dem Poster interagieren, d. h. durch Annähern an so ein„tag“ Informationen auslesen. In der Regel wird dabei nur der Hash-Wert des Tags ausgelesen, und die Logik, welche Informationen ausgetauscht wird, liegt in der Anwendung auf dem Mobilgerät. Im Gesundheitsbereich eignet sich dieses Interakti- onsschema besonders zur patientenseitigen Dokumentation von Gesundheitszuständen.

Über NFC können universelle zusätzliche Faktoren für die Zwei-Faktor- Authentisierung mit Betriebssystemen oder Webbrowsern kommunizieren, wie zum Beispiel Security-Tokens für den offenen U2F-Standard. Nachteilig sind die geringe Datenübertragungsrate für NFC-Tags und die resultierende schwache Transaktionsbin- dung (ohne galvanische Kopplung wie bei FIDO) unter verschiedenen Angriffsszenari- en.

Der technische Ansatz bietet eine Vielzahl von Möglichkeiten, die sich für das bisher bekannte Mobiltelefon ohne Erweiterung nicht empfehlen. Grundsätzlich sind zwei Anwendungstypen erkennbar:

Kommunikation bei unmittelbarer Paarung: Die NFC-Technik basiert auf der Kombina- tion aus Smartcard- und kontaktlosen Verbindungstechniken. Sie arbeitet bei einer Fre- quenz von 13,56 MHz und bietet eine Datenübertragungsrate von maximal 424 kBit/s bei einer Reichweite von nur zehn Zentimetern. Dies ist gewünscht, damit die Kontakt- aufnahme als Zustimmung zu einer Transaktion gewertet werden kann. NFC ist durch ISO 14443, 18092, 21481 ECMA 340, 352, 356, 362 beziehungsweise ETSI TS 102 190 genormt.

Die Kommunikation zwischen NFC-fähigen Geräten kann sowohl aktiv-passiv als auch aktiv-aktiv sein (Peer-To-Peer), im Gegensatz zur herkömmlichen Kontaktlostechnik in diesem Frequenzbereich (nur aktiv-passiv). Daher stellt NFC eine Verbindung zur RFID-Welt dar. NFC ist größtenteils kompatibel mit weithin verwendeter Smartcard- Infrastruktur, basierend auf ISO/IEC 14443-A (z. B. NXPs Mifare-Technik) bzw. ISO/IEC 14443-B (vor allem in frankophonen Ländern) wie auch mit Sonys FeliCa- Card (z. B. Octopus-Karte in Hong Kong), die für elektronische Fahrkarten im öffentli- chen Nahverkehr und für Zahlungsanwendungen genutzt werden. Seit Oktober 2015 gibt es auch eine NFC-Spezifikation basierend auf der ISO-15693-Technologie, welche meist eine etwas größere Reichweite als der ISO-14443-Standard bietet.

Wegen der extrem kurzen Reichweite ist NFC keine Konkurrenz zu Bluetooth oder Wireless LAN. Es kann aber als Ersatz für Strichcodes in den oben genannten Berei- chen (elektronischer Kauf von Fahr- oder Eintrittskarten etc.) eingesetzt werden, in de- nen die Kapazitäten von Barcodes für die benötigten Datenmengen nicht mehr ausrei- chend sind. (Die DataMatrix ist zum Beispiel auf 1558 Byte pro Barcode beschränkt.) Die Verbindung zwischen Smartphone und NFC-Tag stellen Applikationen wie NFC Taginfo, NFC Reader oder Trigger her.

Vor allem wird NFC aber dort eingesetzt, wo zwei Geräte kryptografisch gesichert mit- einander kommunizieren (etwa bei Bezahl -Anwendungen). Kommunikation mit gerin- gem Abstand: Ergänzend wird für Zugangskontrolle und -Steuerung Bluetooth berück- sichtigt, weil dieser neue Funkstandard (Version 4.0) weltweit verbreitet wird. Der bis- her verwendete Bluetooth-Standard (Version 2.1) ist im Protokollaufbau relativ lang- sam (länger als eine Sekunde) und energiezehrend (Batteriezyklus kleiner als zwei Ta- ge). Die entsprechenden Chips (Bluetooth low energy) wurden nicht vor Anfang 2011 in Großserien verwendet. Dabei werden Reichweiten von einem bis zu drei Metern er- reicht (Bluetooth Klasse 3), was die Definition des NFC-Konzepts (+ 0,1 m) erkennbar verlässt.

Die Unternehmen NXP Semiconductors, Sony und Nokia gründeten 2004 gemeinsam das NFC-Forum, das die Implementierung und Standardisierung der NFC-Technik vor- antreiben und die Kompatibilität zwischen Geräten und Diensten sicherstellen soll. Das NFC-Forum unterstützen auch andere Unternehmen, wie zum Beispiel American Ex- press, MasterCard, Panasonic, Microsoft, Motorola, NEC, Samsung, Texas Instruments, Infineon Technologies, Hewlett-Packard, VISA International Service Association, Vodafone, Sprint, Postbank, Telefönica und France Telecom.

Lange war nur ein NFC-fahiges Mobiltelefon kommerziell erhältlich, das 6131 NFC von Nokia. Der finnische Hersteller brachte im dritten Quartal 2008 mit dem Nokia 6212 und zu Anfang 2011 mit dem Nokia C7-00 weitere Geräte auf den Markt. Weitere Hersteller haben Prototypen oder NFC-Mobiltelefone in limitierter Stückzahl für Feld- versuche entwickelt. 2009 und 2010 wurden weltweit rund 25 NFC-Feldversuche in den unterschiedlichsten Anwendungsgebieten gestartet, um zu untersuchen, auf welche Art diese neue Technik angewandt werden kann. Das Smartphone Eluga von Panasonic, wie auch das Nexus 5, waren eine der ersten Smartphones, welche mit NFC-Technik ausgestattet wurden. Im mittleren und hoch- preisigen Segment sind heute so gut wie alle Smartphones mit NFC ausgestattet.

Im April 2006 wurde in Hanau bei Frankfurt die NFC-Technik vom Rhein-Main- Verkehrsverbund (RMV), Nokia und Vodafone nach einem erfolgreichen zehnmonati- gen Feldversuch in den Regelbetrieb („NFC Handy Ticketing“) übernommen. Die Fahrkarten für das Busnetz der hessischen Stadt konnten elektronisch bezahlt, gespei- chert und entwertet werden, indem NFC-fahige Handys an das jeweilige Terminal ge- halten wurden. Darüber hinaus wurde in die Handys auch eine neu eingeführte regiona- le Freizeitkarte, die„RMV-ErlebnisCard Hanau“ integriert. Sie räumt dem Inhaber gün- stige Konditionen in lokalen Einzelhandelsbetrieben und bei Veranstaltungen ein.

Im Juli 2007 startete der RMV zusammen mit seinem Systempartner T-Systems sowie Nokia einen weiteren NFC-Pilotversuch in Frankfurt am Main. Hier dienten passive NFC-Funkchips (sogenannte„ConTag“) zum automatischen Starten der in Frankfurt bereits seit längerem eingesetzten Handyticketing-Lösung.

Vodafone hatte auf der CeBit 2007 in Zusammenarbeit mit der Deutschen Bahn das Projekt„Touch&Travel“ vorgestellt, das mittlerweile im Fernverkehr bundesweit im Betrieb ist. Zunächst war eine Variante des Motorola SLVR V7 mit NFC-Aufsatz im Einsatz, die später durch das Samsung GT-S5230N ersetzt wurden. Ab 1. Januar 2010 wurde das Pilotgebiet um die Strecken von Hannover über das Ruhrgebiet bis nach Köln erweitert. Zwischenzeitlich sind auch die Mobilfunkanbieter T-Mobile und 02 Projektpartner. Aktuell ist das System in allen größeren bundesdeutschen Mobilfunk- netzen nutzbar.

Auf der WIMA-Konferenz 2009 in Monaco präsentierte Nokia sein neues NFC -Handy 6216 classic. Dieses Handy setzt auf den neuesten NFC-Chipsatz von NXP und ist das erste weltweit, welches den neuen Kommunikationsstandard SWP umsetzt. SWP zeich- net sich dadurch aus, dass es eine Kommunikation zwischen dem„Secure Element“ (der SIM-Karte) und dem NFC-Chipsatz ermöglicht.

Auf der ECIS-Konferenz 2012 in Barcelona sind Ergebnisse von mobilen EDC- basierten Systemen im Gesundheitswesen präsentiert worden Patienten die an der amy- otrophen Lateral sklerose (ALS) erkrankt sind und eine Einschränkung der Feinmotorik aufweisen, konnten in einem zwölfwöchigen Test ihren Gesundheitszustand dokumen- tieren. Hierfür erhielten die Patienten ein NFC-fahiges Mobiltelefon und ein Poster, das auf der Rückseite mit NFC-Tags beklebt war. Auf der Vorderseite des Posters waren Fragen zum Gesundheitszustand abgebildet, die die Patienten mit dem Mobiltelefon be- rühren und anschließend bewerten konnten.

Projekt Ingeborg ist ein Kulturprojekt aus Klagenfurt, Österreich. Das im Juli 2012 ge- startete Projekt stellt regelmäßig regionale Kunstschaffende vor. Dabei kann durch Scannen von Smart Labels, die im öffentlichen Raum verteilt wurden, digitaler Inhalt zur vorgestellten Künstlerin oder zum vorgestellten Künstler am Smartphone abgerufen werden, wobei das Projekt mit NFC gestartet wurde, dann aber aufgrund der bekannten Limitationen von NFC bei bestimmten Betriebssystemen auf QR-Code erweitert wurde. Mobilkom Austria startete im September 2007 berührungsloses Bezahlen bei den ÖBB und Wiener Linien. Auch in Helsinki, in der Metro Moskau und im öffentlichen Nah- verkehr in London werden NFC-Tags als Fahrkarten genutzt. NFC-kompatibel ist seit 2011 auch der neue Personalausweis der Bundesrepublik Deutschland. Viele Dienststel- len verfügen bisher nicht über die erforderlichen Funk-elektronischen Lesegeräte.

Am 1. November 2011 führte die Deutsche Bahn an allen Fernbahnhöfen Touchpoints mit der Nahfunktechnik NFC ein. Seit August 2012 sind alle neuen EC-Karten (Girokarten) des Sparkassenverbands und der Genossenschaften mit NFC -fähigen Chips ausgerüstet. Sie sollen für die Bezahlung von Kleinstbeträgen bis zu 20,00 Euro verwendet werden (Girogo). Der Geldbetrag wird zuvor auf die Karte am Geldautoma- ten, per Aboladen oder PIN-Autorisation am PoS geladen. Dieser NFC-Standard ist ei- ne weitere Schnittstelle zum Chip. Sie soll das kontaktbehaftete Stecken der Karte (z. B. auch bei der Altersverifizierung am Zigarettenautomaten) ablösen. Nach und nach fuh- ren MasterCard (PayPass), Visa (PayWave) und weitere Zahlkartenorganisationen neue Karten mit einem NFC-Chip ein, um den Bezahlvorgang in Geschäften zu beschleuni- gen und zu vereinfachen.

Eine ganz andere Einsatzmöglichkeit nutzt Sony, um mit marktüblichen Smartphones qualitativ hochwertige Fotografie zu ermöglichen. Besondere mit Basis-Technik ausge- stattete Vorsatz-Objektive (Serie DSC-QX) nutzen bei direktem Andocken an das Smartphone NFC-Technik zur schnellen Kommunikation zwischen dem Smartphone und den aus Profi-Geräten bewährten Kameraobjektiven als Alternative zum hierbei langsameren und gelegentlich störungsanfälligen WLAN, das wiederum die Einsatz- möglichkeit für Entfernungen bis zu 15 m zwischen Objektiv und Gerät erweitert.

Laut einer Umfrage vom EEH Retail Institute aus dem Jahr 2014 bieten bereits 28 % der befragten berührungsloses Zahlen via Karte und 24 % via mobile Payment an. Visa und MasterCard gaben im selben Jahr bekannt, dass sie bis 2020 alle von ihnen unterstützten Kassen-Terminals in Europa derart Umrüsten, dass diese kontaktloses Bezahlen per Karte und mobiles kontaktloses Bezahlen mit dem Smartphone akzeptieren.

In Österreich entstand mit Projekt Ingeborg ein Netzkulturprojekt, das Künstler im öf- fentlichen Raum auf Smart Labels vorstellt und dafür NFC-Tags nutzt. Die Österreichi- sche Post nutzt NFC seit Anfang 2016 für Empfangsboxen, die in größeren Wohnhäu- sern installiert sind. Die im Postkasten zugestellten Benachrichtigungen enthalten einen NFC-Tag, der die Empfangsbox öffnet.

NFC ist grundsätzlich abhängig von den Einstellungen der Handgeräte. Ein Schutz der Privatsphäre ist nur gegeben, wenn die Funktion generell deaktiviert ist. Allerdings funktioniert NFC nur aus sehr geringer Distanz, was die Möglichkeit eines Missbrauchs deutlich einschränkt. Es ist mit 1,5 m großen Antennen (wie sie an Ein- und Ausgängen von Kaufhäusern üblich sind) möglich, eine Strecke von ca. 1 m zu überbrücken. Verlust- und Sicherheitsrisiken: Es gilt die einfache Sachlage: Mobiltelefon weg - Geld weg - Schlüssel weg. Die Wiederbeschaffung von Schlüsseln ist das geringere Pro- blem. Die Schlüsselfunktion ist bei Bindung an die SIM-PIN-Funktion mit dem Aus- schalten des Mobiltelefons nicht mehr wirksam. Bis zu diesem Ausschalten ist ein Missbrauch möglich.Der aktuelle lokale Geldbestand wird nach Verlust des Mobiltele- fons nicht wiederhergestellt. Der aktuelle Geldbestand auf dem Mobiltelefon ist nach verschiedenen Konzepten nicht an die SIM-PIN-Funktion gebunden und dann bei Ver- lust nicht geschützt.Die Authentifizierung mit dem Mobiltelefon ist mit oder ohne SIM- PIN-Funktion an dieses eine Gerät oder Medium gebunden und damit generell nicht völlig unabhängig in zwei Sicherheitsmerkmalen zu implementieren.

Ohne Transaktionsbindung bleiben alle Implementierungen vergleichsweise unsicher. Soweit das Mobiltelefon keine Belege auf Papier erzeugt oder Transaktionsdaten spei- chert, ist der Benutzer von der Unterstützung des Diensteanbieters abhängig. Reklama- tionen sind ohne dessen Beteiligung meist nicht möglich. Bisher ist völlig unklar, wel- cher Mechanismus außer einer zeitbezogenen Höchstgrenze den Kontoinhaber vor un- erwünschten Abbuchungen schützt, wenn das eingeschaltete Mobilgerät in falsche Hände gerät. Ebenso ist unklar, welche Sicherung die Schlüsselfunktion hat, wenn der Zugriff nicht einmal an die SIM-Karte gebunden ist.

Komplexe Lösungen zu diesem Problem werden bisher nur vereinzelt vorgeschlagen und erfordern entweder eine Bedienhandlung für ein Sicherheitsmerkmal oder eine zweite Komponente als unabhängigen Sicherheitsfaktor. Funkübertragung von Informa- tion kann generell durch Attacken unbefugter Dritter ausgespäht werden. Auch Man-in- the-Middle-Angriffe sind möglich. Insbesondere der Bezahlvorgang mit Funkübertra- gung ist somit gefährdet.

Eine technisch wirksame Verbesserung wird durch die kombinierte Verwendung meh- rerer Authentisierungsfaktoren erreicht. Auch solche Kombinationen können durch kombinierte Attacken überwunden werden. Notwendige Sicherung seitens des Benutzers ist die Begrenzung der Bezahlvorgänge für den einzelnen Vorgang und für die Summe der Vorgänge je Periode (Tag, Monat). Laut Report München ist diese Technik weder ausgereift noch zertifiziert und anfällig für Angriffe durch Dritte. So können mittels einer einfachen Applikation und eines NFC-fähigen Endgeräts die Kreditkartendaten etwa durch ein kurzes Darüberstreifen aus einer Entfernung von maximal 4 cm, beispielsweise über das Portemonnaie, ausge- lesen werden. Mit diesen Daten kann in dem zuvor vereinbarten Verfügungsrahmen im Internet eingekauft werden, solange der Zahlungsempfänger nicht den dreistelligen op- tischen Card Validation Code (CVC) von der Rückseite der Kreditkarte verlangt, denn dieser wird beim Auslesen nicht übertragen.

Der CVC kann aber bei manchen Banken per Brute-Force-Methode ermittelt werden, was Report München in einem Folgebeitrag dokumentierte. Ohne Eingabe des CVC soll laut Stellungnahme der Kreditkartengesellschaften die Haftung im Betrugsfall beim Zahlungsempfänger liegen. Im Bericht unberücksichtigt blieben Kreditkarten, die zu- sätzlich über 3-D Secure (zusätzliche Passworteingabe oder mTAN) gesichert sind.

80. Chipkarte

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens eine Chipkarte und/oder eine Einrichtung und/oder Vorrich- tung als Chipkarte enthaltend.

Chipkarte, oft auch als Smartcard oder Integrated Circuit Card (ICC) bezeichnet, ist ei- ne spezielle Kunststoffkarte mit eingebautem integrierten Schaltkreis (Chip), der eine Hardware-Logik, nichtflüchtige EPROM bzw. EEPROM-Speicher oder auch einen Mi- kroprozessor enthält. Chipkarten werden durch spezielle Kartenlesegeräte angesteuert.

Erste Chipkarte von Giesecke & Devrient aus dem Jahr 1979: In der Geschichte der Chipkarte prägten drei Erfinder mit ihren Patenten die Entwicklung der Chipkarte in der heutigen Form. Am 6. Februar 1967 meldete der deutsche Ingenieur Helmut Gröttrup mit DE 1574074 einen "nachahmungssicheren Identifizierungsschalter" als Kontroll- schaltung auf Basis eines monolithisch integrierten Halbleiters an, der sehr kompakt aufgebaut ist und keinerlei Leitungen nach außen besitzt. Gemäß dieser Erfindung sind die Informationen aufgrund der ebenfalls geprüften Abmessungen„nicht durch diskrete Bauelemente nachahmbar“. Die Identifikationsdaten können durch integrierte Zähler dynamisch so variiert werden, dass der zugrunde liegende Schlüssel nicht durch einfa- ches Auslesen kopierbar ist und daher im Chip verborgen bleibt.

Am 13. September 1968 meldeten Jürgen Dethloff und Helmut Gröttrup darauf basie- rend in Österreich das Patent "Identifizierungsschalter" an und in einer gleichlautenden Nachanmeldung DE1945777A am 10. September 1969 in Deutschland und in weiteren Ländern. Das Patent wurde in Österreich am 15. Mai 1970 als AT287366B erteilt. Die Erteilung in den USA erfolgte am 8. Februar 1972 als Patent US3641316A und am 18. Juli 1972 als Patent US3678250A. Deutschland erteilte das Patent DE1945777C3 am 1. April 1982. Dabei reduzierte sich der Patentschutz weitgehend auf die Inhalte der Pa- tentanmeldung DE1574074 vom 2. Februar 1967 von Helmut Gröttrup, der damit als Erfinder der Chipkarte gelten kann. In den USA erhielt Vemon Schatz 1977 ein Patent für Chipkarten als Speichermedium, nicht unähnlich der Funktion eines heutigen USB- Sticks.

Ein weiterer Erfinder ist der Franzose Roland Moreno, der sein Patent 1975 anmeldete. Auf der Webseite des US Patent and Trademark Office ist es als Nachanmeldung unter dem Datum 30. Mai 1978 registriert. Er beschreibt darin ein„unabhängiges, elektroni- sches Objekt, entwickelt für die Speicherung von vertraulichen Daten“, das den Zugriff nach der Eingabe eines„geheimen Codes“ (PIN) freigibt. Moreno gelang in Frankreich ein Durchbruch als France Telecom 1984 die Chipkarte für das Telefonieren einführte. Moreno erhielt 1996 mit Dethloff den Technologiepreis der Eduard-Rhein-Stiftung für die Erfindung der Chipkarte.

Im Jahr 1979 fertigte Giesecke+Devrient die weltweit erste Chipkarte im Labor mit den Abmessungen im Scheckkartenformat ID-1 gemäß ISO/IEC 7810, das später mit ISO 7816-2 auch für Chipkarten festgelegt wurde. Der Halbleiterchip für diese Speicher- chipkarte auf Basis der EEPROM-Technologie wurde von Siemens geliefert. Anfangs war die Fläche mit den Kontakten im linken oberen Bereich angeordnet, um das Bie- gemoment und damit die Belastung des Chips zu minimieren. Diese Position wurde später geändert, um die Funktion der Magnetspur zu gewährleisten, die aus Kompatibi- litätsgründen in vielen Anwendungsfallen beibehalten werden musste, z. B. für die Eu- rocheque-Karte. Anlässlich des 50. Jahrestags der Nachanmeldung DE1945777A er- schien in Deutschland eine Briefmarke, die auf den weltumspannenden Siegeszug der Chipkartentechnik anspielt und das Datum der deutschen Nachanmeldung am 10. Sep- tember 1969 und das Ausgabedatum der Briefmarke am 5. September 2019 zeigt.

Chipkarten können nach unterschiedlichen Kriterien unterschieden werden. Die eingän- gigste ist die Unterscheidung zwischen Speicher-Chipkarten mit einfacher Logik und Prozessor-Chipkarten mit eigenem Karten-Betriebssystem und kryptografischen Fähig- keiten. Diese Einteilung ging lange konform mit der Einteilung in synchrone Karten (Speicherchipkarten; Protokolle: 2wire, 3wire, ...) und asynchrone Karten (Pro- zessorchipkarten; Protokolle: T=0, T=l). Mittlerweile gibt es auch Secure Memory Cards mit erweiterten Sicherheitsmerkmalen (DES oder AES-Verschlüsselung) und Speicher-Chipkarten, die über asynchrone Protokolle funktionieren (GemClub Memo), letztere sind dadurch sehr einfach über das PC/SC-System in eigene Applikationen zu integrieren.

Chipkarten werden auch über die Schnittstelle nach außen unterschieden. Den kontakt- behafteten Chipkarten stehen die kontaktlosen RFID Chipkarten, oder auch Transpon- derkarten, wie die Mifare- oder Legic-Karten, gegenüber. Chipkarten mit mehreren (un- terschiedlichen) Chips werden hybride Karten genannt, es gibt am Markt allerdings auch Chips, die über beide Schnittstellen angesprochen werden können (Dual Interface Karten). Zusammen mit PC/SC2 ergeben sich damit innovative Verwendungsmöglich- keiten. Der wichtigste Bestandteil der Chipkarte ist der integrierte Schaltkreis, der die Fähig- keiten und somit das Anwendungsgebiet der Chipkarte bestimmt. Der Chip wird vom Chipkartenmodul geschützt, so dass der Chip normalerweise von außen nicht sichtbar ist. Das Modul stellt auch die Verbindung zur Außenwelt dar, die typischen Goldkon- takte des Chipkartenmoduls werden oft fälschlicherweise als Chip bezeichnet. Obwohl ein gebräuchlicher Chipkarten-Chip zur Kommunikation nur fünf Kontakte braucht, ha- ben Chipkartenmodule immer, bestimmt durch die Größe des eingebauten Chips, sechs oder acht Kontakte, allerdings nur um den ISO-Normen zu entsprechen.

Letztendlich wird das Modul inklusive Chip in eine Karte eingebaut. Dazu wird in eine bereits bedruckte Karte eine Kavität gefräst und das Modul eingeklebt. Viele Chipkar- ten, insbesondere für den Mobilfunk, haben eine eindeutige ICC-ID bzw. tCCID, diese ist 19- bis 20-stellig, darunter eine Prüfziffer. Die Kartenabmessungen sind nach ISO 7816 standardisiert und gemäß dieser Norm in drei verschiedenen Größen verfügbar: ID-1 : Das größte und am weitesten verbreitete Format (85,60 mm x 53,98 mm) wird bei Debitkarten, Telefonkarten, dem EU-Führerschein oder der Krankenversicherungs- karte verwendet. Man spricht auch vom Scheckkarten-Format.

ID-00: Das mittlere Format (66 mm x 33 mm) hat bisher keine größere Anwendung ge- funden. ID-000: Das kleinste der Formate (25 mm x 15 mm) findet vor allem bei SIM Karten in Mobiltelefonen Verwendung. Daneben gibt es weitere typische Größen: Mni- UICC(12 mm x 15 mm): kaum größer als die Kontaktflächen.Visa Mini (65,6 mm x 40,0 mm): Visa-eigenes Format Die Dicke der Karten aller Größen istein- heitlich und beträgt 0,762 mm (exakt 0,03 Zoll).

Speicherchipkarten: Die einfachen Chipkarten bestehen nur aus einem Speicher, der ausgelesen oder beschrieben werden kann, z. B. die Krankenversichertenkarte oder die Telefonkarte. Über die Schnittstelle ist es möglich, sequenziell auf die einzelnen Spei- cherzellen zuzugreifen. Verwendung finden Speicherkarten dort, wo es nur auf die Speicherung der Daten ankommt, nicht aber auf das Abwickeln komplexer Vorgänge. Komplexere Chipkarten kombinieren mehrere Speichertechnologien in einer Karte und werden als Hybridkarten bezeichnet. So können Hybridkarten über einen kontaktbehaf- teten und einen kontaktlosen Chip, aber auch über einen Magnetstreifen mit RFID-Chip verfugen.

Abhängig von dem verwendeten Chip können die Daten durch PINs oder Passwörter vor dem Auslesen oder der Veränderung durch Dritte geschützt werden.

Prozessorchipkarten: Prozessorchipkarten verfügen über einen Mikroprozessor, über den man auf die gespeicherten Daten zugreifen kann. Es gibt oft keine Möglichkeit, auf den Datenbereich direkt zuzugreifen. Der Umweg über den Mikroprozessor erlaubt es, die Daten auf der Karte über kryptographische Verfahren vor fremdem Zugriff zu schützen. Die Möglichkeit, auf diesen Mikroprozessoren anwendungsspezifische Pro- gramme laufen zu lassen, bietet viele Vorteile im Vergleich zu Speicherkarten, z. B. bei Chipkarten, die als Zahlungsmittel verwendet werden (GeldKarte) oder wichtige Daten (z. B. SIM-Karten für Handys) enthalten.

Oft enthält die Karte auch einen signierten Schlüssel und dient als Dekoderkarte (z. B. beim Bezahlfernsehen oder sonstigen Zugangssystemen). Bereits bei der Herstellung der Chips werden Teile des Karten-Betriebssystem (COS) und die vorgesehenen An- wendungen auf die Karte geladen. Chipkarten können als sicherer Informations- oder Schlüsselspeicher dienen, aber sie bieten auch verschiedene Sicherheitsdienste wie Au- thentifizierung, Verschlüsselung, digitale Signaturen usw. an, die in einer vertrauens- würdigen Umgebung genutzt werden können. Da die privaten Schlüssel auf der Chip- karte gespeichert sind und diese nicht verlassen, ist das Erspähen des Schlüssels nicht möglich, weswegen eine Signaturerzeugung auf der Chipkarte sehr sicher ist.

Auf Prozessorchipkarten läuft ein eigenes Betriebssystem. Dies kann zum Beispiel Ba- sicCard, CombOS, CardOS, JCOP, MTCOS, MultOS, SECCOS, Sicrypt, STARCOS oder TCOS sein. Die Prozessorchipkarten lassen sich wiederum in zwei Kategorien auf- teilen. Dies sind Karten mit einem festen Befehlssatz, der nur vom Hersteller des Be- triebssystems angepasst werden kann, und frei programmierbare Karten, die über eine Entwicklungsumgebung um eigene Befehle bzw. Kommandos erweitert werden kön- nen. Karten mit festem Befehlssatz implementieren in der Regel Kommandos gemäß dem IS07816 Standard (IS07816-4 und folgende).

Beispiele für Karten mit festem Befehlssatz sind CardOS, STARCOS, SECCOS und TCOS. Frei programmierbare Karten folgen teilweise ebenfalls diesem Standard, kön- nen aber auch um weitere proprietäre Kommandos erweitert werden. Hierzu implemen- tieren sie meist eine virtuelle Maschine. Beispiele hierfür sind die Java-Karten (zum Beispiel JCOP), MULTOS und die BasicCard.

Die Applikationen auf den Prozessorchipkarten selbst sind, trotz Standardisierung durch ISO 7816, in hohem Maße vom Chipkartenbetriebssystem abhängig. PKCS#15 stan- dardisiert die Applikation auf der Chipkarte selbst, während für die Verwendung durch Rechnerapplikationen PKCS#11 die standardisierte Schnittstelle ist. Daneben existieren noch proprietäre Schnittstellen wie CSP (Cryptographic Service Provider) von Microsoft.

Javakarten sind Mikroprozessorkarten mit einer reduzierten Java-Virtual-Machine als Betriebssystem. Bei diesen Karten kann ein Programmierer nach der Fertigstellung der Karte über ein Kartenlesegerät und eine spezielle Ladesoftware neue Programme, soge- nannte Applets, auf die Karte laden. So können Karten mit sehr speziellen Funktionali- täten in Kleinserie kosteneffizient hergestellt werden. JavaCard Betriebssysteme sind z. B. JCOP (IBM/NXP) oder SmartCafe (Giesecke & Devrient). Details sind vom Indu- strieverband GlobalPlatform spezifiziert, so dass eine gewisse Interoperabilität gewähr- leistet ist.

Die BasicCard ist eine in BASIC programmierbare Mikroprozessorkarte, die wie auch die Java Card mit einer virtuellen Maschine arbeitet. Die in BASIC erstellten Anwen- dungen können nach der Kompilierung mit einem Kartenlesegerät in die Karte übertra- gen werden. Die Entwicklungsumgebung ist kostenlos verfügbar. Karten sind auch in kleinen Stückzahlen für jedermann verfügbar. Die Karte eignet sich somit auch für kleinere und private Projekte.

Die Interaktion zwischen Computersystemen und Chipkartenleser bzw. Chipkartenap- plikationen ist im PC/SC-Standard standardisiert. Die Version 2 der PC/SC- Spezifikation behandelt neben höherklassigen Kartenlesem auch die Einbindung von asynchronen Speicherchipkarten und kontaktlosen Chipkarten in das PC/SC-System, zum Beispiel wie ein ATR (Answer to Reset) dieser Karten gebildet wird. Einige Trei- ber von Kartenleserherstellem sind mittlerweile PC/SC2-konform. Die ältere CT-API („CardTerminal Application Programming Interface“) ist im Rahmen der von Teletrust Deutschland herausgegebenen MKT-Spezifikation (MKT steht für„Multifunktionales Kartenterminal“) definiert worden. Diese Spezifikation ist hauptsächlich im deutsch- sprachigen Raum verbreitet. CT-API wird vor allem deshalb genutzt, da hier die Ver- wendung von Elementen höherklassiger Chipkartenleser (Pinpad, Display) standardi- siert ist. Der Zugriff über PC/SC war bis zu PC/SC2 proprietär.

In Deutschland gehören G+D Mobile Security (München), Morpho Cards (Flintbek, ehemals Sägern Orga und seit 2017 fusioniert mit der französischen Oberthur Techno- logies) und die Bundesdruckerei (Berlin) zu den Marktführem. Weltweit sind die nie- derländische Gemalto nv (2017 von der französischen Thaies Group übernommen) mit einem Marktanteil von 50 % weltweit und 30 % in Europa, und Oberthur Technologies führend. Das weltweite Marktvolumen umfasste 2007 geschätzte 2,9 Milliarden Karten, davon 70 % für Mobiltelefone (SIM-Karten), 16 % Debitkarten und Kreditkarten, der Rest für Ausweise (z. B. Pässe, Skiausweise, Fahrkarten). Für 2017 wurde ein weltwei- ter Umsatz von 16,8 Mrd. US-Dollar geschätzt, und für 2025 wird ein Umsatz von 29,3 Mrd. US-Dollar bei einer Stückzahl von 32,7 Milliarden Karten prognostiziert.

Mit weltweit mehr als 10.000 installierten Systemen ist die Mühlbauer AG aus Roding einer der führenden Hersteller für Hardware- und Softwarelösungen rund um die Pro- duktion und Personalisierung von Chip- und Kunststoffkarten. Kontaktbehaftete wie kontaktlose RFID-Chipkarten werden zunehmend für immer mehr Applikationen be- nutzt. Die Eignung einer Chipkarte für eine konkrete Anwendung hängt von vielen Fak- toren ab, in der Regel von der Notwendigkeit einer Datenübertragung via Funktrans- ponder, der Speichergröße und den Sicherheits- und Verschlüsselungsmechanismen.

Eine Auswahl von Chipkartenanwendungsgebieten: Ausweise aller Art, Zeiterfassung, Zutrittskontrolle für Räume (z. B. Sicherheitsbereich, Hotelzimmer), zwei-Faktor- Authentisierung (2FA) für die sichere Authentifizierung eines Benutzers in IT- Systemen, Zahlungsverkehr mit Guthabenkarte, Debitkarte und Kreditkarte, elektroni- sche Gesundheitskarte, automatische Notrufsysteme für Kraftfahrzeuge (seit April 2018 vorgeschrieben für alle neuen Modelle in der Europäischen Union), Identifizierung der Teilnehmer in automatisierten Mautsystemen.

Mit der immer größer werdenden Verbreitung von Chipkarten wird es auch immer wichtiger, die Leistungsfähigkeit dieser Karten zu gewährleisten bzw. zu verifizieren. Die Tests erstrecken sich dabei von Prüfungen des Kunststoffkörpers bis zu Applikati- onstests der Chipkartenanwendung. Ein OpenSource-Werkzeug, mit dem sich diese Applikationstests komfortabel durchfuhren lassen, ist GlobalTester, basierend auf Glo- bal Platform, einem Standard für offene und interoperable Infrastrukturen für Chipkar- ten und Terminals.

81. International Mobile Subscriber Identity (IMSI)

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens eine einmalige, unveränderbare Kennung, vorzugsweise ID (Identification) und/oder ID-Code (28c), für einen Nutzer (7) und/oder eine Nutzan- wendung (7a) und/oder eine Entität (7a) enthaltend, vorzugsweise mittels IMSI Ken- nung ausgebildet. Beispiel einer IMSI und/oder einer einmaligen, unveränderbare Ken- nung: 262 01 9876543210

Die International Mobile Subscriber Identity (IMSI; deutsch Internationale Mobilfunk- Teilnehmerkennung) dient in GSM-, UMTS- und LTE-Mobilfunknetzen der eindeuti- gen Identifizierung der Netzteilnehmer (interne Teilnehmerkennung). Neben weiteren Daten wird die IMSI auf einer speziellen Chipkarte gespeichert, dem SIM (Subscriber Identity Module). Die IMSI-Nummer wird weltweit einmalig pro SIM von den Mobil- funknetzbetreibern vergeben. Dabei hat die IMSI nichts mit der Telefonnummer zu tun, die der SIM-Karte zugeordnet ist.

Die IMSI besteht aus maximal 15 Ziffern und setzt sich folgendermaßen zusammen: Mobile Country Code (MCC), 3 Ziffern

Mobile Network Code (MNC), 2 oder 3 Ziffern

Mobile Subscriber Identification Number (MSIN), 1-10 Ziffern

Beispiele einer IMSI: 262 01 9876543210

MCC 262 für Deutschland, MNC 01 für T-Mobile, MSIN 9876543210 für den Teil- nehmer. 262 02 9745642210 MCC 262 für Deutschland, MNC 02 für Vodafone D2, MSIN 9745642210 für den Teilnehmer. 310 240 974564247 MCC 310 für USA, MNC 240 für Voicestream, MSIN 974564247 für den Teilnehmer. 262 07 9745642247 MCC 262 für Deutschland, MNC 07 für 02, MSIN 9745642247 für den Teilnehmer.

In Deutschland werden IMSIs durch die Bundesnetzagentur blockweise zugeteilt, wobei ein IMSI-Block durch eine eindeutige Kombination aus MCC und MNC gebildet wird. Bisher wurden die folgenden IMSI-Blöcke zugeteilt:

IMSI-Block Nutzer

262 01 Deutsche Telekom Mobilnet GmbH (T-Mobile)

262 02 Mannesmann Mobilfunk GmbH (jetzt Vodafone)

262 03 E-Plus Mobilfunk GmbH (jetzt Telefönica)

262 04 Mannesmann Mobilfünk GmbH (jetzt Vodafone)

262 05 E-Plus Mobilfunk GmbH (jetzt Telefönica)

262 06 Deutsche Telekom Mobilnet GmbH

262 07 Telefönica Germany GmbH & Co OHG (o2)

262 08 Telefönica Germany GmbH & Co OHG (o2) 262 09 Mannesmann Mobilfunk GmbH (jetzt Vodafone)

262 10 Mannesmann Arcor (für GSM-R) (später DB Telematik, jetzt DB Netz) 262 1 1 Telefönica Germany GmbH & Co OHG (o2)

262 16 vistream GmbH

262 22 sipgate Wireless GmbH

262 42 Chaos Computer Club e. V. (CCC Event)

262 43 Lycamobile

262 77 E-Plus Mobilfunk GmbH (jetzt Telefönica)

82. IMSI-Catcher

Es folgen weitere Ausftihrungsformen der Erfindung: Verwendung des elektronischen Elementes (E) zur Vermeidung eines Auslesens einer Mobilfunkkarte und oder SIM Karte und/oder SIM Funktion.

IMSI-Catcher sind Geräte, mit denen die auf der Mobilfunkkarte (SIM) eines Mobilte- lefons gespeicherte International Mobile Subscriber Identity (IMSI) ausgelesen und der Standort eines Mobiltelefons innerhalb einer Funkzelle eingegrenzt werden kann. Der IMSI-Catcher arbeitet gegenüber dem Mobiltelefon wie eine Funkzelle (Basisstation) und gegenüber dem Netzwerk wie ein Mobiltelefon. Das Gerät simuliert also ein Mo- bilfunknetzwerk; alle Mobiltelefone in einem gewissen Umkreis buchen sich bei dieser Funkzelle aufgrund ihres stärksten Signals ein.

Mit einem IMSI-Catcher ist das Abhören von Mobilfunktelefonaten möglich. Auch Da- ten Unbeteiligter im Funknetzbereich des IMSI-Catchers können erfasst werden, ohne dass dies von Betroffenen erkennbar ist. Der IMSI-Catcher setzt unter Umständen den gesamten Mobilfunkverkehr der betroffenen Mobiltelefone außer Funktion, sodass ge- gebenenfalls auch ein Notruf unterbunden werden könnte. IMSI-Catcher werden haupt- sächlich von Strafverfolgungsbehörden und Nachrichtendiensten zur Bestimmung eines Aufenthaltsortes und zum Erstellen eines Bewegungsprofils von Personen benutzt. Der Catcher simuliert eine bestimmte Mobilfunkzelle des Netzbetreibers. Der Catcher steigt in der Kanal-Nachbarschaftsliste des Mobiltelefons als Serving-Cell auf. Der IMSI-Catcher strahlt eine veränderte Location Area Identity aus und veranlasst somit die Mobiltelefone dazu, Kontakt zum (simulierten) Mobilfunk-Netz aufzubauen („Lo- cation Update“-Prozedur). Der Catcher fordert daraufhin einen„Identity Request“- Befehl an. Das Mobiltelefon antwortet mit einem Identity Response, welcher IMSI oder TMSI (temporary IMSI) sowie IMEI enthalten kann. Die erhaltenen Daten müssen dann mit vorhandenen Datenbeständen verglichen werden.

Der gesamte Vorgang wird dadurch ermöglicht, dass ein Mobiltelefon sich zwar gegen- über dem Mobilfunknetz authentifiziert, nicht aber das Mobilfünknetz sich gegenüber dem Mobiltelefon. Nachdem der Catcher als Basisstation das Mobiltelefon übernom- men hat, bringt er das Mobiltelefon über einen dafür vorgesehenen Signalisierungsweg im GSM-Protokoll in den unverschlüsselten Übertragungsmodus. Somit wird ein über den Catcher geführtes Gespräch abhörbar. Um das abgehörte Gespräch weiterzuleiten (Man-In-The-Middle-Angriff), muss sich der IMSI-Catcher gegenüber dem Mobilfunk- netz als Mobiltelefon ausgeben. Dabei kann er die unverschlüsselt abgehörten Nach- richten nicht unverschlüsselt weiterleiten, da das Mobilfunkgerät zwar von der Basissta- tion dazu gebracht werden kann, unverschlüsselt zu senden, diesen Modus aber nicht von sich aus wählen darf. Deshalb benötigt der IMSI-Catcher eine eigene SIM-Karte und leitet die abgehörten Daten als eigenes Gespräch weiter. Anrufe, die von einem ab- gehörten Mobiltelefon aus getätigt werden, zeigen dem Angerufenen daher auch nicht die Telefonnummer des tatsächlichen Anrufers an, sondern die des IMSI-Catchers, bzw. sie werden nicht angezeigt.

Obwohl die Firmware eines Mobiltelefons den unüblichen Modus der Nicht- Verschlüsselung von Gesprächen dem Benutzer signalisieren könnte, wird darauf ver- zichtet. Lediglich bei einigen Modellen ist es möglich, Aufschluss zu erlangen, ob das Mobilfunkgerät im verschlüsselten Modus überträgt. Hierzu muss ein interner Netz- werkmonitor des Geräts aktiviert werden. Dieser ist jedoch zumeist nicht benutzer- freundlich und erfordert Fachkenntnisse, um die angezeigten Werte richtig zu deuten. Ohnehin ist bei Mobilfunkgesprächen ebenso wie bei Festnetzgesprächen zu beachten: Staatliche Abhörmaßnahmen finden direkt bei der Mobilfunk-/Telefongesellschaft statt und sind aus Gründen, die sich aus der Systematik der Abhörmethode ergeben, nicht am Endgerät feststellbar.

Beispielszenario: Eine Zielperson befindet sich in ihrer Wohnung. Ermittler nähern sich der Zielperson mit einem Fahrzeug, in welchem der Catcher untergebracht ist, und fuh- ren je eine Simulation pro Netzbetreiber durch. Nun dürften gerade in einer Großstadt pro Messung und Netz eine Menge an Kennungspaaren„IMSI“ oder„TMSI“,„IMEI“ gefangen werden. Dieser Umstand dürfte es erforderlich machen, mehrere Messungen durchzuführen. Nun verlässt die Zielperson die Wohnung und fährt z. B. in eine andere Stadt. Die Ermittler verfolgen die Zielperson und fuhren evtl schon auf der Fahrt erneut Messungen durch. Durch den Abgleich der ersten Serie an Messungen mit der zweiten oder weiteren Messungsserien kann herausgefunden werden, welche Kennungen gleich sind. Die IMSI und IMEI, welche bei der ersten sowie der zweiten Messungsserie iden- tisch sind, gehören mit hoher Wahrscheinlichkeit zur Zielperson.

Auch wenn die Person die SIM-Karte wechselt, bleibt immer noch die IMEI des Mobil- telefons gleich. Aus diesem Grund sind Kriminelle dazu übergegangen, neben dem Wechsel der SIM-Karte ein anderes Mobiltelefon einzusetzen, also mehrere verschie- dene Mobiltelefone mit unterschiedlichen SIM-Karten zu benutzen. Durch Vergleich mit allen gesammelten Daten sind Rückschlüsse auf den Tauschzyklus möglich.

Bei manchen älteren Mobiltelefonen lässt sich über eine besondere Software mit Hilfe eines Datenkabels auch die IMEI abändem. Beim Wechsel der IMEI sollte darauf ge- achtet werden, eine solche Kennung zu vergeben, wie sie auch in der Praxis von den Herstellern vergeben wird (stimmiger Type Approval Code und stimmiger Länder- code). BKA und Verfassungsschutz verwenden bereits Geräte, welche Gespräche abhö- ren können (z. B. GA 090). Sie gelten - bei einem Preis von 200.000 bis 300.000€ - auch bereits als Exportschlager. Eine vielfach nicht erwähnte und auch unterschätzte Problematik stellt die Besonderheit von IMSI-Catchem dar. Sie können die in ihrem Wirkungsbereich befindlichen Mobil- telefone blockieren, sodass auch ein Notruf an Polizei, Feuerwehr oder Rettungsdienst während eines solchen Einsatzes unmöglich ist. Gerade damit lässt sich aber auch eine gewollte Kommunikationsunterdrückung im Rahmen von polizeilichen Überwachungs- und Zugriffsmaßnahmen realisieren. IMSI-Catcher können auch sehr nützlich bei der Suche nach vermissten Personen sein, wie 2015 bei der Suche nach einem verunglück- ten Wingsuit-Flieger in den Schweizer Alpen.

In Großstädten dürfte es nur sehr schwer möglich sein, die IMSI und IMEI eines Mobil- telefonnutzers anhand nur eines Standortes in kurzer Zeit zu ermitteln. Wenn das Mo- biltelefon also nur an einem bestimmten Ort eingesetzt wird (z. B. ein Haus mit vielen Parteien) und die Position nicht verändert wird, geht das gesuchte Mobiltelefon in der Menge der anderen unter und ist schwerer zu identifizieren. Darüber hinaus müsste das simulierte Signal des IMSI-Catchers über längere Zeit wesentlich stärker sein als die Funknetzversorgung des Netzbetreibers. Dies würde zu einer schnellen Enttarnung des IMSI-Catchers führen.

Mit Hilfe spezieller Monitor-Software, die ununterbrochen alle Signale aufzeichnet (z. B. Zellen-ED, Kanal, Location-Area, Empfangspegel, Timing Advance, Mindest- /Maximal-Pegel) kann der Einsatz eines IMSI-Catchers unter Umständen nachvollzo- gen werden. Da IMSI-Catcher auch von Geheimdiensten eingesetzt werden, ist anzu- nehmen, dass jene gut getarnt sind. Dies bedeutet, dass eine Netzbetreiberzelle eins zu eins kopiert wird.

Auffällig ist jedoch, dass bei allen Mobiltelefonen eines Netzbetreibers in der Nähe des Catchers zur gleichen Zeit„Kommunikation“ stattfindet. Dies ist beispielsweise durch Monitor-Software feststellbar. Noch auffälliger: Dieses Phänomen wiederholt sich in kurzen Abständen bei allen Netzbetreibem in der Nähe des Catchers. Um dies festzu- stellen, wären also mindestens zwei Mobiltelefone pro Netzbetreiber nötig, deren Daten per Software laufend ausgewertet werden.

Beispiel eines möglichen Signalisierungsprofils - als // dargestellt - und vier Mobile Network Codes (Netzbetreiber). Für jeden MNC werden 2 Mobiltelefone eingesetzt, daher der Doppelstrich (//). Die Reihenfolge der MNCs ist unerheblich. Ein einfacher Strich (/) ist z. B. ein Periodic Location Update.

Die Treppenstruktur weist auf einen Fremdeingriff durch einen Catcher in das Mobil- funknetz hin.

Ein normales Profil ohne Standortwechsel und eigenen Eingriff ist völlig unstrukturiert:

Allerdings ist diesem erkennbaren Muster auf einfachste Art und Weise durch den IMSI-Catcher zu entgegnen, indem ein script pseudo-zufällig für Aktivität zu den ein- zelnen eingebuchten Teilnehmern sorgt, z. B. durch stille SMS oder RRLP -Abfragen. Dadurch werden die T3212-Timer der einzelnen Teilnehmer dazu gebracht, nicht mehr quasi-synchron zu laufen, die Aktivitätsmuster erscheinen zufälliger, und diese einfache Erkennungsmöglichkeit wird verhindert.

Da der IMSI-Catcher zwar gegenüber dem Mobiltelefon ein GSM -Netzwerk simulieren kann, jedoch nicht gegenüber dem Netzwerk ein Mobiltelefon, ist ein Scan -Vorgang mit IMSI-Catcher auch recht einfach durch einen Telefonanruf zu enttarnen: Man ruft das fragliche Mobiltelefon an. Wenn es nicht klingelt, wurde die vom„echten“ Netz kommende Signalisierung verschluckt. Ein erfolgreicher terminierter Anruf kann den Einsatz eines„einfachen“ IMSI-Catchers ausschließen (z. B. R&S GA 090). Mittler- weile gibt es jedoch intelligentere IMSI-Catcher, die nur halbaktiv arbeiten. Somit las- sen sich auch eingehende Gespräche belauschen.

Ein paar Mobiltelefone (z. B. frühere Geräte von SonyEricsson) zeigen jedoch eine deaktivierte Verschlüsselung an („Ciphering Indication Feature“), was auf den Einsatz eines IMSI-Catchers Zurückzufuhren sein kann - vorausgesetzt, dass der Netzbetreiber dies nicht über das OFM bit in EF AD (Operational Feature Monitor LSB in Byte 3 der Elementary File: Administrative Data„6FAD“) auf der SIM unterdrückt. Davon unbe- einträchtigt sind jedoch Überwachungsfunktionen, die direkt vom echten Netzwerk vollkommen ohne IMSI-Catcher gesteuert werden.

Normalerweise werden Telefonüberwachungen über den Betreiber abgewickelt und werden von diesen erst nach richterlicher Genehmigung vorgenommen. IMSI-Catcher kann die Polizei (technisch gesehen) jederzeit einsetzen und somit die richterliche Überprüfung umgehen. Dieses Vorgehen wäre zwar dann illegal, nachzuweisen ist das jedoch nur schwer. Spätestens bei einer Gerichtsverhandlung wären so unrechtmäßig erhobene Daten jedoch nicht als Beweise zulässig.

In Deutschland ist der am 14. August 2002 in Kraft getretene § 100i der Strafprozess- ordnung die Rechtsgrundlage für den Einsatz eines IMSI-Catchers durch Straf erfol- gungsbehörden. Die Vorschrift dient unter anderem der Fahndung sowie der Begrün- dung von Sachbeweisen. In einem Beschluss vom 22. August 2006 bestätigte das Bun- desverfassungsgericht die Vereinbarkeit des Einsatzes von IMSI-Catchem zur Strafver- folgung mit dem Grundgesetz. Nach Ansicht der Richter verstößt dieser Einsatz weder gegen Datenschutzbestimmungen noch gegen Grundrechte wie das Femmeldegeheim- nis oder das allgemeine Persönlichkeitsrecht. Präventiv ist die Nutzung in den jeweiligen Polizeigesetzen im Abschnitt der Datener- hebung geregelt. In Österreich ist die Verwendung des IMSI-Catchers durch eine No- velle des Sicherheitspolizeigesetz (SPG) seit 1. Januar 2008 auch ohne richterliche Er- laubnis möglich. Da dies eine enorme Bedrohung der Privatsphäre darstellt, initiierten Die Grünen eine Petition, die eine erneute Prüfung dieser Gesetzesänderung verlangte; jedoch wurde dieser Forderung von den zuständigen Ministerien nicht nachgegangen. Eine parlamentarische Anfrage des Abgeordneten Alexander Zach (Liberales Forum) an den damaligen Innenminister Günther Platter ergab, dass innerhalb der ersten vier Monate, also von Januar bis April 2008 bereits über 3800 Anfragen (32 Mal pro Tag) zur Überwachung von Mobiltelefon und Internet erfolgten.

Mit dem Sicherheitspaket 2018 wurde der Einsatz der Mobiltelefon-Ortung erstmals eindeutig gesetzlich geregelt (§ 135 Abs. 2a und 2b StPO). Zulässig ist nur die Feststel- lung von geographischen Standorten und der zur internationalen Kennung des Benut- zers dienenden Nummer (Lokalisierung einer technischen Einrichtung, § 134 Z. 2a StPO). Mit der gleichzeitig eingeführten Wertkartenregistrierung (Ausweispflicht beim Erwerb, Abschaffung anonymer SIM-Karten)[10] kann damit der Telefonbesitzer festgestellt werden. Kritisiert wurde die Einführung dieser Maßnahme vor allem, da der IMSI-Catcher deutlich mehr kann als die Rechtsgrundlage erlaubt. Die Organisation epicenter. works kritisierte vor allem, dass keine geeigneten "rechtlichen, technischen und organisatorischen Sicherungen" geschaffen wurden um vor einem solchen rechts- widrigen Einsatz zu schützen.

IMSI-Catcher (Eigenbau des Museums für Kommunikation Frankfurt Dauerleihgabe im Deutschen Technikmuseum Berlin).In Deutschland am weitesten verbreitet ist wohl das „GA 090“ der Firma Rohde & Schwarz. In Österreich befinden sich bereits mehrere Geräte der Firma Rohde & Schwarz im Einsatz, die Anschaffung eines Geräts mit UMTS-Tauglichkeit wurde beschlossen. Mit einem Aufwand von ca. 1500 Eurooder mindestens 200-300 Euro ist es möglich, einen IMSI-Catcher selbst zu bauen. 83. Verschlüsselung

Verwendung des elektronischen Elementes (E) zur hundertprozent sicheren Authentifi- zierung durch das erfindungsgemäße verschlüsselte Verfahren (14e), wobei zum ent- schlüsseln kein geheimer Schlüssel benötigt wird und unter Ausschluss einer Ver- schlüsselung bei der aus einem Klartext mithilfe eines Schlüssels ein Geheimtext er- zeugt wird.

Durch Verschlüsselung wird aus einem Klartext mithilfe eines Schlüssels ein Geheim- text erzeugt Verschlüsselung (auch: Chiffrierung oder Kryptierung) ist die von einem Schlüssel abhängige Umwandlung von „Klartext“ genannten Daten in einen „Geheimtext“ (auch:„Chiffrat“), so dass der Klartext aus dem Geheimtext nur unter Verwendung eines geheimen Schlüssels wiedergewonnen werden kann. Sie dient zur Geheimhaltung von Nachrichten, beispielsweise um Daten gegenüber unbefugtem Zu- griff zu schützen oder um Nachrichten vertraulich übermitteln zu können.

Durch Verschlüsseln wird ein„Klartext“, also ein klar lesbarer Text, in einen„Geheim- text“, also in eine unverständliche Zeichenfolge umgewandelt. Die Begriffe Klartext und Geheimtext sind historisch gewachsen und symbolisch zu sehen. Außer Textnach- richten lassen sich auch andere Arten von Information verschlüsseln, wie Sprachnach- richten, Bildaufzeichnungen oder der Quellcode von Programmen. Die dahinterstehen- den kryptographischen Prinzipien bleiben die gleichen.

Eine besondere und relativ einfache Art der Verschlüsselung ist die Codierung (auch: Kodierung). Hierbei werden in der Regel nicht einzelne Klartextzeichen oder kurze Zeichenkombinationen verschlüsselt, sondern ganze Worte, Satzteile oder ganze Sätze. Beispielsweise können wichtige Befehle wie„Angriff im Morgengrauen!“ oder„Rück- zug von den Hügeln!“ bestimmten Codewörtem oder unverständlichen Zeichenkombi- nationen aus Buchstaben, Ziffern oder anderen Geheimzeichen zugeordnet werden. Dies geschieht zumeist als tabellarische Liste, beispielsweise in Form von Codebü- chem. Zur Steigerung der kryptographischen Sicherheit von Codes werden die damit erhaltenen Geheimtexte oft einem zweiten Verschlüsselungsschritt unterworfen. Dies wird als Überschlüsselung (auch: Überverschlüsselung) bezeichnet. Außer geheimen Codes gibt es auch offene Codes, wie den Morsecode und ASCII, die nicht kryptogra- phischen Zwecken dienen und keine Verschlüsselung darstellen.

Der entscheidend wichtige Parameter bei der Verschlüsselung ist der„Schlüssel“. Die gute Wahl eines Schlüssels und sein sicherer Schutz vor unbefugtem Zugriff sind wich- tige Voraussetzungen zur Wahrung des verschlüsselten Geheimnisses. Im Fall der Codierung stellt das Codebuch den Schlüssel dar. Im Fall der meisten klassischen und auch einiger moderner Methoden zur Verschlüsselung ist es ein Passwort (auch: Kenn- wort, Schlüsselwort, Codewort oder Kodewort, Losung, Losungswort oder Parole von italienisch la parola„das Wort“; englisch: password). Bei vielen modernen Verschlüs- selungen, beispielsweise bei der E-Mail-Verschlüsselung, wird dem Benutzer inzwi- schen die (Qual der) Wahl eines Schlüssels abgenommen. Der Schlüssel wird automa- tisch generiert, ohne dass er es bemerkt. Hierdurch wird auch der„menschliche Faktor“ eliminiert, nämlich die nicht selten zu sorglose Wahl eines unsicheren, weil zu kurzen und leicht zu erratenden, Passworts.

Der zur Verschlüsselung umgekehrte Schritt ist die Entschlüsselung. Zum Entschlüs- seln wird der geheime Schlüssel benötigt, mit dessen Hilfe der befugte Empfänger den Geheimtext wieder in den Klartext zurückverwandeln kann. Geht der Schlüssel verlo- ren, dann lässt sich der Geheimtext nicht mehr entschlüsseln. Gerät der Schlüssel in fremde Hände, dann können auch Dritte den Geheimtext lesen, das Geheimnis ist also nicht länger gewahrt. Ein zusammenfassender Begriff für Verschlüsseln und/oder Ent- schlüsseln ist das Schlüsseln.

Sprachlich zu trennen von der Entschlüsselung ist der Begriff der„Entzifferung“. Als Entzifferung wird die Kunst bezeichnet, dem Geheimtext seine geheime Nachricht zu entringen, ohne im Besitz des Schlüssels zu sein. Dies ist die Tätigkeit eines Kryptoana- lytikers, häufig auch als„Codeknacker“ (engl.: codebreaker) bezeichnet. Im Idealfall gelingt keine Entzifferung, weil das Verschlüsselungsverfahren ausreichend„stark“ ist. Es wird dann als„unbrechbar“ oder zumindest als„kryptographisch stark“ bezeichnet. Im Gegensatz zu einer„starken Verschlüsselung“ lässt sich eine„schwache Verschlüs- selung“ ohne vorherige Kenntnis des Schlüssels mit vertretbarem Aufwand mithilfe kryptanalytischer Methoden brechen. Durch Fortschritte in der Kryptologie kann sich eine vermeintlich starke Verschlüsselung im Laufe der Zeit als eine schwache Ver- schlüsselung herausstellen. So galt beispielsweise die„Vigenere-Verschlüsselung“ über Jahrhunderte hinweg als„Le Chiffre indechiffrable“ (deutsch:„Die unentzifferbare Verschlüsselung“). Inzwischen weiß man, dass dem nicht so ist.

Das Arbeitsgebiet, das sich mit der Entzifferung von Geheimtexten befasst, ist die Kryptanalyse (älterer Ausdruck: Kryptoanalyse). Sie ist neben der Kryptographie das zweite Teilgebiet der Kryptologie. Die Kryptanalyse dient nicht nur zur unbefugten Entzifferung von Geheimnachrichten, sondern sie befasst sich auch mit „(Un- )Brechbarkeit“ von Verschlüsselungen, also der Prüfung der Sicherheit von Verschlüs- selungsverfahren gegen unbefugte Entzifferung.

Die meisten Verschlüsselungsverfahren sind nur pragmatisch sicher, d. h. bei ihrer Kryptanalyse wurde keine praktikable Möglichkeit zur Entzifferung gefunden. Dabei ist das Vertrauen in die Sicherheit umso mehr gerechtfertigt, je länger ein Verfahren be- reits öffentlich bekannt ist und je verbreiteter es in der Anwendung ist, denn umso mehr kann man davon ausgehen, dass viele fähige Krypto logen es unabhängig voneinander untersucht haben und dass eine evtl vorhandene Schwäche gefunden und veröffentlicht worden wäre (siehe auch Kerckhoffs’ Prinzip).

Es gibt Verfahren, deren Sicherheit unter Annahme der Gültigkeit bestimmter mathe- matischer Vermutungen beweisbar ist. So kann zum Beispiel für das RSA- Kryptosystem gezeigt werden: Der private Schlüssel eines Benutzers kann aus dessen öffentlichem Schlüssel genau dann effizient berechnet werden, wenn man eine große Zahl (in der Größenordnung von einigen hundert Dezimalstellen) effizient in ihre Primfaktoren zerlegen kann. Das einzige Verschlüsselungsverfahren, dessen Sicherheit wirklich bewiesen und nicht nur auf Vermutungen zurückgeführt wurde, ist das One- Time-Pad. Zur Illustration einer Verschlüsselung wird der unten (aus Gründen der besseren Unter- scheidbarkeit wie üblich in Kleinbuchstaben) angegebene Klartext mithilfe eines sehr alten und äußerst simplen Verfahrens, der Caesar-Verschlüsselung, in einen Geheimtext (hier aus Großbuchstaben) umgewandelt. Als geheimer Schlüssel wird hier„C“ benutzt, also der dritte Buchstabe des lateinischen Alphabets.

Das bedeutet die Ersetzung jedes einzelnen Klartextbuchstabens durch den jeweiligen im Alphabet um drei Stellen verschobenen Buchstaben. So wird beispielsweise aus dem Anfangsbuchstaben„B“ des Klartextes durch Verschlüsselung der im Alphabet drei Stellen später auftretende Buchstabe„E“ im Geheimtext, und so weiter:

bevordertextverschluesseltwirdisterklarlesbar

EHYRUGHUWHAWYHUVFKOXHWHOWZLUGLVWHUNODUOHVEDU

Der im Beispiel mit„EHYRU“ beginnende, hier durch Caesar-Verschlüsselung ent- standene (und aus Gründen der Illustration wie üblich in Großbuchstaben dargestellte) Geheimtext ist tatsächlich auf den ersten Blick unverständlich. Er eignet sich somit, um die im Klartext enthaltene Information vor fremdem Blicken zu verbergen. Kennt ein möglicher Angreifer das zugrundeliegende Verschlüsselungsverfahren nicht, oder ge- lingt es ihm nicht, den benutzten Schlüssel zu finden, dann bleibt der Geheimtext für ihn ohne Sinn.

Natürlich ist die hier im Beispiel benutzte Methode, die schon die alten Römer kannten, viel zu schwach, um die Geheimnachricht lange zu schützen. Einem erfahrenen Code- brecher wird es nicht viel Mühe bereiten, den Geheimtext nach kurzer Zeit zu entzif- fern, auch ohne vorherige Kenntnis von Schlüssel oder Verfahren.

Im Laufe der Geschichte der Menschheit wurden daher immer stärkere Methoden zur Verschlüsselung entwickelt (siehe auch: Geschichte der Kryptographie). Ein modernes Verschlüsselungsverfahren ist der Advanced Encryption Standard (AES), das zurzeit als unbrechbar gilt. Dies wird sich aber in kommenden Jahrzehnten möglicherweise ändern (siehe auch: Kryptanalytische Angriffe auf AES). Prinzipiell unterscheidet man unter- schiedliche klassische und moderne symmetrische Verschlüsselungsverfahren und die erst seit wenigen Jahrzehnten bekannten asymmetrischen Verschlüsselungsverfahren. Klassische Verschlüsselungsverfahren können nach dem verwendeten Alphabet klassi- fiziert werden.

Symmetrische Verschlüsselung: Bei der symmetrischen Verschlüsselung dient der Schlüssel auch zur Entschlüsselung Symmetrische Verschlüsselungsverfahren verwen- den zur Ver- und Entschlüsselung den gleichen Schlüssel. Bei historischen Verfahren lassen sich zwei Verschlüsselungsklassen unterscheiden. Bei der ersten werden, wie bei der im Beispiel benutzen Caesar-Verschlüsselung, die Buchstaben des Klartextes ein- zeln durch andere Buchstaben ersetzt. Mit dem lateinischen Wort substituere (deutsch: „ersetzen“) werden sie als Substitutionsverfahren bezeichnet. Im Gegensatz dazu bleibt bei der zweiten Verschlüsselungsklasse, genannt Transposition (von lateinisch: trans- ponere; deutsch:„versetzen“), jeder Buchstabe wie er ist, aber nicht wo er ist. Sein Platz im Text wird verändert, die einzelnen Buchstaben des Textes werden sozusagen durcheinandergewürfelt. Eine besonders einfache Form einer Transpositions- Verschlüsselung ist die bei Kindern beliebte„Revertierung“ (von lateinisch: reverse; deutsch:„umkehren“) eines Textes. So entsteht beispielsweise aus dem Klartext„Ge- heimnis“ der Geheimtext SINMIEHEG.

Bei modernen symmetrischen Verfahren werden Strom Verschlüsselung und auf einer Blockverschlüsselung basierende Verfahren unterschieden. Bei der Stromverschlüsse- lung werden die Zeichen des Klartextes jeweils einzeln und nacheinander verschlüsselt. Bei einer Blockverschlüsselung hingegen wird der Klartext vorab in Blöcke einer be- stimmten Größe aufgeteilt. Wie dann die Blöcke verschlüsselt werden, bestimmt der Betriebsmodus der Verschlüsselungsmethode.

Interessanterweise beruhen selbst moderne Blockchiffren, wie beispielsweise das über mehrere Jahrzehnte gegen Ende des 20. Jahrhunderts zum Standard erhobene Ver- schlüsselungsverfahren DES (Data Encryption Standard) auf den beiden klassischen Methoden Substitution und Transposition. Sie verwenden diese beiden Grundprinzipien in Kombination und beziehen ihre Stärke ganz maßgeblich durch die mehrfache wie- derholte Anwendung von solchen Kombinationen nicht selten in Dutzenden von„Run- den“. So wird, vergleichbar zum wiederholten Kneten von Teig, der Klartext immer stärker verschlüsselt. Die Stärke der Verschlüsselung steigt zumeist mit der Anzahl der verwendeten Runden.

Asymmetrische Verschlüsselung: Bei der asymmetrischen Verschlüsselung gibt es zwei unterschiedliche Schlüssel, den öffentlichen Schlüssel zur Verschlüsselung und den pri- vaten Schlüssel zur Entschlüsselung (siehe auch Public-Key Verschlüsselungsverfah- ren) Über Jahrhunderte hinweg war man der Meinung, dass es keine Alternative zur symmetrischen Verschlüsselung und dem damit verknüpften Schlüsselverteilungspro- blem gäbe. Erst vor wenigen Jahrzehnten wurde die asymmetrische Verschlüsselung (engl.: Public-key cryptography) erfunden. Kennzeichen der asymmetrischen Ver- schlüsselung ist, dass zur Verschlüsselung ein völlig anderer Schlüssel als zur Ent- schlüsselung benutzt wird. Man unterscheidet hier zwischen dem„öffentlichen Schlüs- sel“, der zum Verschlüsseln benutzt wird, und dem„privaten Schlüssel“ zum Ent- schlüsseln des Geheimtextes.

Da asymmetrische Verfahren algorithmisch aufwändiger sind als symmetrische und da- her in der Ausführung langsamer, werden in der Praxis zumeist Kombinationen aus beiden, sogenannte Hybrid-Verfahren genutzt. Dabei wird beispielsweise zuerst ein zu- fällig generierter individueller Sitzungsschlüssel mithilfe eines asymmetrischen Verfah- rens ausgetauscht, und dieser anschließend gemeinsam als Schlüssel für ein symmetri- sches Verschlüsselungsverfahren benutzt, wodurch die eigentlich zu kommunizierende Information verschlüsselt wird.

In der Kryptologie dient eine klare Abgrenzung von Begriffen und eine saubere und konsequent verwendete Fachterminologie zur Erleichterung der Arbeit und zur Vermei- dung von Missverständnissen. Im Gegensatz dazu werden umgangssprachlich nicht sel- ten Ausdrücke falsch benutzt und miteinander verwechselt, was zu unnötigen und leicht vermeidbaren Irritationen fuhren kann. Ein Beispiel ist die unsaubere Verwendung des Begriffs Entschlüsselung, wenn eigentlich Entzifferung gemeint ist.

Alphabet - Eine in der Reihenfolge permutierte geordnete Anordnung von Symbolen, speziell der 26 lateinischen Großbuchstaben (Beispiel: E K M F L G D Q V Z N T O W Y H X U S P A I B R C J)

Brechen - Anderer Ausdruck für Entziffern

Chiffrat - Anderer Ausdruck für Geheimtext

Chiffre - Anderer Ausdruck für Verschlüsselungsverfahren

Chiffrieren - Anderer Ausdruck für Verschlüsseln

Chiffrierung - Anderer Ausdruck für Verschlüsselung

Codebuch - Hilfsmittel bei der Codierung

Codeknacker - Anderer Ausdruck für Kryptoanalytiker

Codierung - Zumeist feste Zuordnung von Klartextgruppen zu Geheimtextgruppen Dechiffrat - Anderer Ausdruck für Klartext

Knacken - Anderer Ausdruck für Entziffern

Entschlüsseln - Umwandlung des Geheimtextes in den Klartext mithilfe des Schlüssels Entziffern - Ermitteln des Klartextes aus dem Geheimtext ohne vorherige Kenntnis des Schlüssels

Geheimtext - Durch Verschlüsselung aus dem Klartext erzeugter Text

Involutorisch - Verschlüsselung und Entschlüsselung sind identisch

Kryptoanalytiker - Jemand, der ohne vorherige Kenntnis des Schlüssels versucht, In- formationen aus dem Geheimtext zu ziehen, z. B. den Klartext oder den Schlüssel her- auszufinden

Kryptogramm - Anderer Ausdruck für Geheimtext

Schlüssel - Geheime Information, die bei der Verschlüsselung verwendet wird bzw. zur Entschlüsselung benötigt wird

Schlüsseln - Zusammenfassender Begriff für Verschlüsseln und Entschlüsseln

Schlüssler - Person, die Nachrichten ver- oder entschlüsselt

Schlüsselraum - Menge aller möglichen Schlüssel

Schlüsseltext - Anderer Ausdruck für Geheimtext Schwache Verschlüsselung - Verschlüsselung, die entziffert werden kann

Starke Verschlüsselung - Verschlüsselung, die mit heutigen Kenntnissen und Methoden nicht entziffert werden kann

Verschlüsseln - Umwandlung von Klartext in Geheimtext

Anwendungen in der Praxis der Informationstechnik:

Nachrichtenübertragung in Netzwerken: Eine verschlüsselte Nachricht (z. B. eine E- Mail oder eine Webseite) muss in der Regel über mehrere Stationen übertragen werden. Heute handelt es sich dabei meist um einzelne Computersysteme, das heißt die ver- schlüsselte Nachricht wird über ein Rechnemetzwerk übertragen. Man unterscheidet dabei zwei grundlegend unterschiedliche Übertragungsweisen. Bei der Leitungsver- schlüsselung wird die Nachricht nur jeweils für den Nachbarrechner verschlüsselt.

Dieser entschlüsselt die Nachricht, verschlüsselt sie wiederum (mit einem möglicher- weise anderen Verfahren) und schickt sie an seinen Nachbarn - und so weiter bis zum Zielrechner. Der Vorteil dieses Verfahrens besteht darin, dass sich jeweils nur Nachbar- rechner auf ein Verschlüsselungsverfahren und verwendete Schlüssel einigen müssen. Darüber hinaus kann diese Übertragungsweise auf einer sehr niedrigen Protokollebene (etwa bereits in der Übertragungs-Hardware) angesiedelt werden. Der Nachteil besteht darin, dass jeder einzelne Rechner auf dem Übertragungsweg vertrauenswürdig und si- cher sein muss.

Bei der Ende-zu-Ende-Verschlüsselung hingegen wird die Nachricht vom Absender verschlüsselt und in dieser Form unverändert über mehrere Rechner hinweg zum Emp- fanger übertragen. Hier hat keiner der übertragenden Rechner Einsicht in den Klartext der Nachricht. Der Nachteil besteht allerdings darin, dass sich der Absender mit jedem möglichen Empfänger auf ein Verschlüsselungsverfahren und zugehörige(n) Schlüssel einigen muss. Verschlüsselung von Daten auf Datenträgern („Datentresor“) (Siehe auch Festplattenverschlüsselung) Sensible Daten auf einem Datenträger lassen sich im Wesentlichen auf zwei Wegen vor unbefugtem Zugriff schützen:

-man verschlüsselt mit Hilfe von Verschlüsselungssoftware die gesamte Festplatte oder eine einzelne Partition (engl. Full Disk Encryption oder FDE) oder auch nur einen Da- ten-Container in Form einer einzelnen Datei auf dem Datenträger;

-bei der hardware-seitigen Verschlüsselung (engl, hardware encryption) übernimmt ein Mikrochip auf dem USB-Laufwerk eine automatische und transparente Verschlüsse- lung. Die Authentifizierung wird beispielsweise dadurch erreicht, dass das Gerät über eine physische Tastatur verfügt, über die vor der Verwendung ein PIN -Code einzuge- ben ist.

84. Autonomes Fahren

Verwendung des elektronischen Elementes (E) zur erfindungsgmäßen zumindest teil- weise automatisierten und/oder autonomen N2X - Verkehrssteuerung, vorzugsweise ohne die Verwendung starker KI. Wir müssten unsere Zeit nicht mit der Steuerung eines Autos verschwenden. Die Fahr- zeugauslastung könnte gesteigert, Staus könnten vermieden, die Zahl der Unfälle und der Abgasausstoß könnten gesenkt werden - oder anders gesagt: Roboterautos sind die Komplettlösung.Untemehmen stecken Milliarden in die Entwicklung autonomer Fahr- zeuge. Einer UBS-Studie zufolge könnte der Markt für das autonome Fahren bis 2030 auf ein Volumen von zwei Billionen US-Dollar anwachsen.

Ausgebrochen war die Roboterauto-Euphorie 2005, als ein Forscherteam der Stanford University unter Leitung des deutschen Professors Sebastian Thrun mit einem modifi- zierten VW Touareg die DARPA Grand Challenge gewann. Bei dem Wettbewerb mussten Fahrzeuge eine Strecke von knapp 213 Kilometern durch die Wüste Nevadas selbstständig bewältigen. Noch ein Jahr zuvor kapitulierten die besten Testfahrzeuge bereits nach weniger als zwölf Kilometern.

Euphorisiert von dieser Entwicklung dachten viele, dass Autos schon in naher Zukunft ohne menschliche Fahrer auskommen würden. Doch Forscher in Unternehmen und Universitäten auf der ganzen Welt stießen auf neue technische Herausforderungen. Mittlerweile sind sich Experten weitgehend einig, dass vollautomatisierte Roboterautos erst in ferner Zukunft über die Straßen fahren werden - wenn überhaupt.

Beim autonomen Fahren wird zwischen fünf Levels unterschieden. Level 5 ist die höchste Autonomiestufe und bedeutet, dass die Maschine alle Fahrentscheidungen übernimmt. Der Mensch ist nur noch Passagier.

Level-1 - und Level-2 -Fahrzeuge sind bereits serienreif. Erst einige Jahre nach dem Wettbewerb in der Wüste Nevadas kamen Fahrzeuge mit Level 3 auf den Markt. Audi bewirbt seine Luxuslimousine A8 als erstes Serienfahrzeug, dass dieses Level erreicht hat.

Tesla macht keine Level-Angaben, Experten sprechen aber auch hier von Level-3- Fahrzeugen. Die Google-Tochter Waymo, das Fahrdienstuntemehmen Uber , die Zulie- ferer Bosch sowie Continental und Mobilitäts-Start-ups in San Francisco und China ex- perimentieren mit Fahrzeugen, die laut eigenen Angaben an Level 4 kratzen.

Doch was müssen Roboterautos leisten, welche Komponenten benötigten sie und wel- che Rolle spielt dabei die Künstliche Intelligenz?

Level 1 : Das assistierte Fahren

Auf der ersten Autonomiestufe wird der Fahrer von Assistenzsystemen unterstützt, bei- spielsweise von einem Abstandsregelautomaten (ACC). Im Gegensatz zum herkömmli- chen Tempomat kann ein ACC einen bestimmten Abstand zum vorausfahrenden Auto halten. Das Fahrzeug beschleunigt und bremst selbstständig. Auch die Hindemiserken- nung im toten Winkel ist eine Level-l-Funktion. Nah- und Fembereichsradare ermöglichen die erste Stufe der Autonomie. Mit ihnen las- sen sich Geschwindigkeit und Entfernung mehrerer Objekte bestimmen. Radare haben den Vorteil, dass sie zu allen Licht- und Witterungsverhältnissen brauchbare Daten lie- fern.

Allerdings sinkt die Auflösung der Daten ab Entfernungen von über 300 Metern - zu wenig für das autonome Fahren. Bei einem Überholvorgang auf der Landstraße muss der Fahrer meist über 500 Meter weit vorausschauen können. Ein weiterer Nachteil des Radars ist die schwache visuelle Objekterkennung, etwa bei Schildern, Ampeln oder der Straßenführung. Ein ACC kann weder auf Geschwindigkeitsbegrenzungen reagie- ren, noch den Fahrer warnen, wenn er die Fahrspur verlässt.

Level 2: Das teilautomatisierte Fahren

Erst ab Level 2 können Fahrerassistenzsysteme Objekte erkennen. Dafür benötigen sie neben Radaren eine Monokamera mit einer einfachen Objekterkennungssoftware, die auf regelbasierten Algorithmen basiert. Eine KI ist für Level 2 nicht nötig. Spurhalteassistenten nutzen die zweidimensionalen Bilddaten der Monokamera. Die Kombination aus Radar und Kamera ermöglicht teilautomatisiertes Fahren in Stausitua- tionen. Das Fahrzeug kann zudem Gefahrenbremsungen durchführen.

Mithilfe von Ultraschallsensoren können sich Level-2 -Fahrzeuge selbstständig in Park- lücken manövrieren. Die Ultraschallsensoren scannen den Nahbereich ab, die Mono- kamera hilft bei der Objekterkennung und somit bei der Planung des Parkvorgangs. Al- le Level-2-Funktionen sind - bis auf den Parkassistenten - auf die Längsführung be- schränkt. Lenkentscheidungen können diese Autos nicht treffen.

Bleibt autonomes Fahren eine Utopie?

Level 3: Das bedienungsautomatisierte Fahren

Während auf Level 1 und Level 2 der Fahrer unterstützt wird, erreichen Level -3- Fahrzeuge die Schwelle zum automatisierten Fahren.„Level 3 bedeutet, dass man auf einer Autobahn längere Zeit die Hände vom Lenkrad nehmen kann und der Fahrer nur in Problemfallen eingreifen muss“, sagt FU-Professor Göhring. Die Fahrzeuge sind nun auch in der Lage, Spurwechsel vorzunehmen.

Drei zusätzliche Komponenten sind dafür nötig: Stereokameras, Lidar und KI. Stereo- kameras haben zwei Linsen und liefern im Gegensatz zur Monokamera dreidimensiona- le Bilddaten. Dadurch lassen sich auch über Bilddaten Abstände zu Objekten ermitteln. Lidar ist die Abkürzung für„Light Detection and Ranging“ und eine Art„Laserradar“. Dabei werden statt Funkwellen Laserstrahlen ausgesendet, deren Reflexion ein dreidi- mensionales Lichtbild ergibt. Lidar liefert gegenüber Radaren höher aufgelöste Daten. Es kann Verkehrszeichen, Fahrbahnmarkierungen und Bewegungen - beispielsweise von Passanten - erkennen. Im Vergleich zur Kamera liefert ein Lidar auch nachts brauchbare Daten. Lidar ist das Bindeglied zwischen Radar und Kamera und gewinnt im Bereich des autonomen Fahrens an Bedeutung, seit die Preise dafür sinken.

Ohne Lidar-Daten müsste sich das Roboterauto einen Großteil der Umgebung mit dem Kamerasystem erschließen. Die Software der Kamera müsste deutlich mehr leisten als derzeit möglich, und die zu verarbeitende Datenmenge wäre größer, da Kamerabilder mehr Speicherplatz beanspruchen als Lidar-Bilder.

Besonders stark steigen bei Level-3-Fahrzeugen die Anforderungen an die sogenannte ADCU, die Kontrolleinheit. Sie besteht aus der Rechnereinheit und der Software, die die Sensorikdaten verarbeitet und Schlüsse daraus zieht. Die ADCU muss zwischen sta- tischen und dynamischen Objekten unterscheiden. Bei den dynamischen Objekten muss die ADCU Vorhersagen treffen, in welche Richtung sich die Objekte wahrscheinlich bewegen könnten.

„Die Fahrerassistenzfunktionen, also Level 1 und Level 2, kann man noch ganz gut mit klassischen Verfahren abbilden“, sagt Kay Talmi, Geschäftsführer von Hella Aglaia, einer Softwaretochter des Zulieferers Hella.„Ab Level 3 und Level 3+ gehe ich davon aus, dass eine KI Sinn machen würde, weil komplexe Zusammenhänge entstehen, die nur schwer in regelbasierten Algorithmen beschreibbar sind.“ Ein Beispiel: Auf der rechten Spur einer Autobahn fahrt ein Auto mit eingeschaltetem linken Blinker, auf der linken befindet sich ein anderes Auto im Überholvorgang. Obwohl der Rechtsfahrende signalisiert, die Spur wechseln zu wollen, tut er es nicht. Der linksfahrende menschliche Fahrer kann intuitiv daraus schließen, dass er vergessen hat, den Blinker auszustellen und würde anschließend vorsichtig den Überholvorgang fortsetzen. Mit einem regelbasierten Algorithmus lässt sich so eine Entscheidung kaum abbilden. Eine KI hingegen ist in der Lage, die menschliche Intuition nachzuahmen. Bei Level 3 würde das Roboterauto den Überholvorgang allerdings erst nach Freigabe durch den menschlichen Fahrer fortsetzen. Bei besonders komplexen Verkehrssituatio- nen auf der Autobahn, beispielsweise an einer Baustelle mit verengten Fahrspuren, würde ein Level-3-Fahrzeug zudem die Kontrolle an den Menschen abgeben. Eine In- nenraumkamera überwacht dabei die Bereitschaft des menschlichen Fahrers und gibt, sobald eine für das Roboterauto überfordemde Verkehrssituation eintritt, einen Hinweis an den Fahrer, die Kontrolle über das Fahrzeug zu übernehmen.

Level 4: Das hochautomatisierte Fahren

Erst ab Level 4 können Roboterautos auch solche Verkehrsszenarien bewältigen. Die Experimental fahrzeuge von Daniel Göhring, Waymo, Bosch, Continental und vielen Autoherstellem reichen an diese Autonomiestufe heran. Serienfahrzeuge des Levels 4 gibt es allerdings noch nicht. Auch ist nicht klar, wie Level -4-Fahrzeuge validiert wer- den sollen und wie das Zulassungsprozedere, die sogenannte Flomologation, aussehen wird.

Die Realisierung der vierten Autonomiestufe scheitert bislang aber nicht nur daran. Auch sind die Kosten zu hoch. Auf der Mobilitätskonferenz Metropolian Cities 2019 in Aachen sprach e.Go-Mobile-Gründer Günther Schuh von Kosten zwischen 120.000 bis 140.000 Euro pro Fahrzeug - nur für die Komponenten. Es werden zwar keine neuen Sensoren benötigt, dafür aber deutlich mehr. Je nach Hersteller werden die Autos mit bis zu zehn Radaren und Kameras, neun Lidar-Lasem und zwölf Ultraschallsensoren ausgestattet. Außerdem müssen die Fahrzeuge mindestens über eine 4G- Datenverbindung verfugen, um für die Verortung auf hochaufgelöstes Kartenmaterial zurückgreifen zu können.

Während es bei den Komponenten vor allem eine Kostenfrage ist, gibt es hinsichtlich der Software und Prozessoren größere Defizite. Im Vergleich zu Level 3 müssen deut- lich komplexere Berechnungen durchgeführt werden. Zeitgleich muss der Prozessor mit wenig Strom auskommen.

„Deep-Leaming-basierte Objekterkennung erfordert sehr viel Rechenleistung und damit auch viel elektrische Leistung, wir sprechen hier von mehreren 100 bis 1 000 Watt“, sagt FU-Professor Göhring. Demetrio Aiello, Chef der KI -Abteilung von Continental, versucht daher mit seinem Team die Algorithmen so klein wie möglich zu halten, ohne die Qualität der Datenverarbeitung zu verschlechtern.„Wir arbeiten außerdem an neuen Hardware-Architekturen, die besser geeignet sind, um mit KI-gestützten Algorithmen zu arbeiten.“

Wie Continental greifen Zulieferer, Autohersteller und Start-ups dabei auf spezielle Prozessoren von Nvidia zurück. Dessen Grafikkarten haben sich in den Anfängen des autonomen Fahrens als besonders leistungsfähig erwiesen. Nvidia hat daraufhin neuar- tige Prozessoren angefertigt und die auf das autonome Fahren spezialisierte Drive-PX- Plattform gegründet.„Nvidia geht mit den Grafikprozessoren in eine richtige Rich- tung“, sagt Aiello.„Allerdings ist es noch ein langer Weg bis zum idealen KI -Rechner, der die speziellen Algorithmen wirklich effizient verarbeiten kann.“

Level 5: Das vollautomatisierte Fahren

Es ist daher fraglich, ob die fünfte Stufe jemals erreicht wird.„Level 5 wird es nicht so schnell geben, wie es oftmals von vielen Start-ups und größeren Unternehmen kommu- niziert wird“, glaubt Göhring. Nicht nur fehlt eine KI, die den menschlichen Fahrer er- setzen und dabei stromsparend arbeiten könnte, auch müssten Komponenten verbaut werden, die derzeit nicht existieren.

Sowohl Radar als auch Lidar müssten größere Reichweiten erreichen, die Lidar -Daten höher aufgelöst sein und Kameras bei allen Licht- und Witterungsverhältnissen brauch- bare Daten liefern, ohne dass die dabei anfallende Datenmenge steigt. Die Fahrzeuge müssten untereinander kommunizieren, was als V2V bezeichnet wird. Nur so könnten Roboterautos Entscheidungen anderer Roboterautos, aber auch von Fahrzeugen, die von Menschen gesteuert werden, antizipieren.

Derzeit wird darüber diskutiert, ob das per WLAN oder 5G passieren soll. Darüber hin- aus müssten Level-5 -Fahrzeuge mit Ampeln, Schildern, Parkplätzen oder Gebäuden kommunizieren, im Fachjargon auch V2X genannt. Ampeln können zwar auch mit Kameras erfasst werden, allerdings besteht das Risiko, dass sie bei starker Sonnenein- strahlung rote Ampeln nicht erkennen. Mit kommunizierenden Ampeln gäbe es diese Fehlerquelle nicht.

Kay Talmi von Hella Aglaia sieht noch eine weitere Hürde für Level 5:„Ich kann mir das in Städten wie Berlin nicht vorstellen. Man muss zum Teil Verkehrsregeln brechen, wenn man sich mit dem Auto durch die Städte fortbewegen möchte. Das würde ein au- tonomes System nicht tun, allein aus Haftungsgründen.“

Selbst wenn Sensorik und Kommunikation auf Level 5 angehoben werden, sind die Herausforderungen an die ADCU gigantisch. Reichen für Level 3 ein paar Millionen Rechenoperationen pro Sekunde, geht es bei Level 5 in den Bereich der Tera- Operationen. Die Prozessoren müssten mehrere Billionen Rechenoperationen pro Se- kunde verarbeiten - in einem Auto mit begrenzter Stromzufuhr.

Doch wie für viele technologischen Fortschritte gilt auch für das autonome Fahren das „Amara-Gesetz“, dass auf den 2007 verstorbenen Präsidenten des Institute for the Futu- re aus Palo Alto zurückgeht. Demnach würden die Auswirkungen von Technologie kurzfristig oft überschätzt, langfristig jedoch unterschätzt.

„Das autonome Fahren wird so schnell nicht kommen“, sagt deswegen Göhring.„Aber wenn es dann kommt, wird es einen viel größeren Impact haben, als wir es uns derzeit vorstellen können.“

85. Künstliche Intelligenz

Verwendung des elektronischen Elementes (E) zur erfindungsgmäßen zumindest teil- weise automatisierten und/oder autonomen N2X - Verkehrssteuerung, vorzugsweise ohne die Verwendung starker KI.

Künstliche Intelligenz (KJ), auch artifizielle Intelligenz (AI bzw. A. I.), englisch artifi- cial intelligence (AI bzw. A. I.) ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definiti- on von„Intelligenz“ mangelt. Dennoch wird er in Forschung und Entwicklung verwen- det.

Im Allgemeinen bezeichnet künstliche Intelligenz den Versuch, bestimmte Entschei- dungsstrukturen des Menschen nachzubilden, indem z. B. ein Computer so gebaut und programmiert wird, dass er relativ eigenständig Probleme bearbeiten kann. Oftmals wird damit aber auch eine nachgeahmte Intelligenz bezeichnet, wobei durch meist ein- fache Algorithmen ein„intelligentes Verhalten“ simuliert werden soll, etwa bei Compu- tergegnern in Computerspielen.

Im Verständnis des Begriffs künstliche Intelligenz spiegelt sich oft die aus der Aufklä- rung stammende Vorstellung vom„Menschen als Maschine“ wider, dessen Nachah- mung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die das menschliche Denken mechanisieren soll,[l] bzw. eine Maschine zu konstruieren und zu bauen, die intelligent reagiert oder sich eben wie ein Mensch verhält. Die Ziele der starken KI sind nach Jahrzehnten der Forschung weiterhin visionär.

Starke und schwache KI: Künstliche Intelligenz wird grundsätzlich unterteilt in starke und schwache KI. Während schwache künstliche Intelligenz die menschliche Intelli- genz schon heute in abgegrenzten Teilbereichen erreicht oder übertrifft, wäre eine star- ke künstliche Intelligenz in allen Bereichen auf dem mindestens gleichen Niveau, wie das menschliche Gehirn.

Schwache künstliche Intelligenz: Als schwache künstliche Intelligenz (engl.: weak AI oder narrow AI) werden Systeme bezeichnet, die sich auf die Lösung konkreter An- wendungsprobleme fokussieren. Die Problemlösung erfolgt hierbei auf Basis von Me- thoden der Mathematik und Informatik, die speziell für die jeweilige Anforderung ent- wickelt und optimiert werden. Das daraus resultierende System ist in der Lage, sich selbst zu optimieren.

Schwache KI-Systeme funktionieren reaktiv auf einem oberflächlichen Intelligenz- Level und erlangen kein tieferes Verständnis für die Problemlösung. Schwache künstli- che Intelligenz ist vor allem auf die Erfüllung klar definierter Aufgaben ausgerichtet und variiert die Herangehensweise an Probleme nicht. Stattdessen greift die schwache künstliche Intelligenz auf Methoden zurück, die ihr für die Problemlösung zur Verfü- gung gestellt werden.Alle heute existierenden Systeme fallen unter die Kategorie der schwachen KI. In der wissenschaftlichen und philosophischen Diskussion werden teil- weise auch Systeme als schwache künstliche Intelligenz bezeichnet, die nur intelligent scheinen, hinter denen jedoch keine künstliche Intelligenz im engeren Sinne steckt. Im Großteil der Fälle handelt es sich dabei um rein regelbasierte Systeme.

Beispiele für schwache KI: Schwache künstliche Intelligenz wird bereits in vielen Be- reichen des alltäglichen Lebens eingesetzt. Einige Beispiele hierfür sind Zeichen- bzw. Texterkennung, Bilderkennung, Spracherkennung, Individuelle Aussteuerung von Wer- bung, Automatisierte Übersetzung, Expertensysteme (z.B. das Ableiten von Handlungs- empfehlungen auf Basis einer Wissensdatenbank), Navigationssysteme, Autovervoll- ständigung und Korrekturvorschläge bei Such Vorgängen.

Der überwiegende Teil dieser Systeme stammt von großen Softwareherstellem (Google, IBM, Microsoft, Apple, etc.). Jedoch entstehen auch immer mehr kleinere Anbieter (Startups), die schwache Intelligenzen für die Lösung bestimmter Probleme oder Auf- gaben entwickeln.Besonders starkes Wachstum gibt es derzeit z.B. bei intelligenten Chatbots, die den Kundensupport übernehmen. Im B2B-Bereich wird die Buchhaltung durch schwache KI automatisiert und optimiert, ebenso wie der Posteingang und das BackOffice.

Starke künstliche Intelligenz: Das Ziel einer starken künstlichen Intelligenz (auch Su perintelligenz, oder engl.: strong AI oder general AI) ist es, die gleichen intellektuellen Fertigkeiten von Menschen zu erlangen oder zu übertreffen. Eine starke künstliche In- telligenz handelt nicht mehr nur reaktiv, sondern auch aus eigenem Antrieb, intelligent und flexibel. Stand heute ist es noch nicht gelungen, eine starke künstliche Intelligenz zu entwickeln. Und auch die Diskussion, ob die Entwicklung einer solchen Intelligenz überhaupt möglich ist, hält weiter an. Die Mehrheit der Forscher ist sich mittlerweile al- lerdings einig darüber, dass starke KI entwickelt werden wird, man ist sich jedoch nicht einig darüber, wann dies geschehen wird.

Eine Zeitspanne von 20 bis 40 Jahren gilt jedoch als realistisch.

Eigenschaften einer starken KI: Trotz aller Spekulationen und Unsicherheiten gibt es unter den meisten Forschem und Wissenschaftlern bereits eine grundlegende Einigkeit dahingehend, dass eine starke Intelligenz folgende Eigenschaften aufweisen müsse, um als solche zu gelten: Logisches Denkvermögen, Entscheidungsfähigkeit auch bei Unsi- cherheit, Planungs- und Lernfähigkeit, Fähigkeit zur Kommunikation in natürlicher Sprache, Kombinieren aller Fähigkeiten zur Erreichung eines übergeordneten Ziels.

Die Frage hingegen, ob starke KI ein eigenes Bewusstsein erlangen kann und welche Rolle Empathie, Selbsterkenntnis, Gedächtnis und Weisheit in Verbindung mit den vorgenannten Eigenschaften spielen, bleibt weiter offen. Spekuliert wird beispielsweise, dass eine Superintelligenz keine wirkliche Empathie besitzen wird, sondern diese ledig- lich zur schnelleren oder besseren Zielerreichung simulieren könnte. Wer sich tiefer mit dem Thema Superintelligenz bzw. starke KI befassen möchte, sollte sich das Buch„Superintelligenz: Szenarien einer kommenden Revolution“ von Nick Bostrom zulegen. Starke KI wären Computersysteme, die auf Augenhöhe mit Men- schen arbeiten und diese bei schwierigen Aufgaben unterstützen können. Demgegen- über geht es bei schwacher KI darum, konkrete Anwendungsprobleme zu meistern. Das menschliche Denken und technische Anwendungen sollen hier in Einzelbereichen un- terstützt werden. Die Fähigkeit zu lernen ist eine Hauptanforderung an KI -Systeme und muss ein integraler Bestandteil sein, der nicht erst nachträglich hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines KI-Systems, mit Unsicherheit und probabilistischen Informationen umzugehen.

Insbesondere sind solche Anwendungen von Interesse, zu deren Lösung nach allge- meinem Verständnis eine Form von„Intelligenz“ notwendig zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die Schaffung starker KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwa- chen KI in den letzten Jahren bedeutende Fortschritte erzielt worden.

Ein starkes KI-System muss nicht viele Gemeinsamkeiten mit dem Menschen haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und in seinen Entwicklungsstadien ebenfalls nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein (Evolution des Denkens). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt. Es kann solchen Gefühlen entsprechendes Verhalten jedoch simulieren. Forschungsgebiete: Neben den Forschungsergebnissen der Keminformatik selbst sind in die Erforschung der KI Ergebnisse der Psychologie, Neurologie und Neurowissen- schaften, der Mathematik und Logik, Kommunikationswissenschaft, Philosophie und Linguistik eingeflossen. Umgekehrt nahm die Erforschung der KI auch ihrerseits Ein- fluss auf andere Gebiete, vor allem auf die Neurowissenschaften. Dies zeigt sich in der Ausbildung des Bereichs der Neuroinformatik, der der biologieorientierten Informatik zugeordnet ist, sowie der Computational Neuroscience.

Bei künstlichen neuronalen Netzen handelt es sich um Techniken, die ab Mitte des 20. Jahrhunderts entwickelt wurden und auf der Neurophysiologie aufbauen. KI stellt somit kein geschlossenes Forschungsgebiet dar. Vielmehr werden Techniken aus verschiede- nen Disziplinen verwendet, ohne dass diese eine Verbindung miteinander haben müs- sen. Eine wichtige Tagung ist die International Joint Conference on Artificial Intelli- gence (IJCAI), die seit 1969 stattfindet.

Wissensbasierte Systeme modellieren eine Form rationaler Intelligenz für sogenannte Expertensysteme. Diese sind in der Lage, auf eine Frage des Anwenders auf Grundlage formalisierten Fachwissens und daraus gezogener logischer Schlüsse Antworten zu lie- fern. Beispielhafte Anwendungen finden sich in der Diagnose von Krankheiten oder der Suche und Beseitigung von Fehlem in technischen Systemen. Beispiele für wissensba- sierte Systeme sind Cyc und Watson.

Visuelle Intelligenz ermöglicht es, Bilder beziehungsweise Formen zu erkennen und zu analysieren. Als Anwendungsbeispiele seien hier Handschrifterkennung, Identifikation von Personen durch Gesichtserkennung, Abgleich der Fingerabdrücke oder der Iris, in- dustrielle Qualitätskontrolle und Fertigungsautomation (letzteres in Kombination mit Erkenntnissen der Robotik) genannt.

Mittels sprachlicher Intelligenz ist es beispielsweise möglich, einen geschriebenen Text in Sprache umzuwandeln (Sprachsynthese) und umgekehrt einen gesprochenen Text zu verschriftlichen (Spracherkennung). Diese automatische Sprachverarbeitung lässt sich ausbauen, so dass etwa durch latente semantische Analyse (kurz LSI) Wörtern und Tex- ten Bedeutung beigemessen werden kann.

Beispiele für Systeme zur Mustererkennung sind Google Brain und Microsoft Adam. Die Mustervorhersage ist eine Erweiterung der Mustererkennung. Sie stellt etwa die Grundlage des von Jeff Hawkins definierten hierarchischen Temporalspeichers dar. “Prediction is not just one of the things your brain does. It is the primary function of the neocortex, and the foundation of Intelligence.”

„Vorhersage ist nicht einfach nur eines der Dinge, die dein Gehirn tut. Sie ist die Haupt- fimktion des Neocortex und das Fundament der Intelligenz.“

- Jeff Hawkins: On Intelligence

Solche Systeme bieten den Vorteil, dass z. B. nicht nur ein bestimmtes Objekt in einem einzelnen Bild erkannt wird (Mustererkennung), sondern auch anhand einer Bildserie vorhergesagt werden kann, wo sich das Objekt als nächstes aufhalten wird.

Robotik: Die Robotik beschäftigt sich mit manipulativer Intelligenz. Mit Hilfe von Ro- botern können etwa gefährliche Tätigkeiten wie etwa die Minensuche oder auch immer gleiche Manipulationen, wie sie z. B. beim Schweißen oder Lackieren auftreten können, automatisiert werden. Der Grundgedanke ist es, Systeme zu schaffen, die intelligente Verhaltensweisen von Lebewesen nachvollziehen können. Beispiele für derartige Robo- ter sind ASIMO und Atlas.

Basierend auf der Arbeit des Physikers Alexander Wissner-Gross kann ein intelligentes System durch die Entropiekraft modelliert werden. Dabei versucht ein intelligenter Agent seine Umgebung (Zustand X0), durch eine Handlung (Kraftfeld F) zu beeinflus- sen, um eine größtmögliche Handlungsfreiheit (Entropie S) in einem zukünftigen Zu- stand X zu erreichen.

KI überlappt sich mit der Disziplin künstliches Leben (Artificial life, AL), wird als übergeordnete oder auch als eine Subdisziplin gesehen. AL muss deren Erkenntnisse in- tegrieren, da Kognition eine Kemeigenschaft von natürlichem Leben ist, nicht nur des Menschen. Die Methoden der KI lassen sich grob in zwei Dimensionen einordnen: symbolische vs. neuronale KI und Simulationsmethode vs. phänomenologische Metho- de.

Die Neuronale KI verfolgt einen Bottom-up -Ansatz und möchte das menschliche Ge- him möglichst präzise nachbilden. Die symbolische KI verfolgt umgekehrt einen Top- down-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es dem phänomenologischen An- satz nur auf das Ergebnis an.

Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf heuristischen Lö- sungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze aus der Stati- stik, der mathematischen Programmierung und der Approximationstheorie eine bedeu- tende Rolle. Die konkreten Techniken der KI lassen sich grob in Gruppen einteilen:

Suchen: Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lö- sungen gesucht wird. Verschiedene Suchalgorithmen werden dabei eingesetzt. Ein Pa- radebeispiel für die Suche ist der Vorgang der Wegfindung, der in vielen Computer- spielen eine zentrale Rolle einnimmt und auf Suchalgorithmen wie zum Beispiel dem A* -Algorithmus basiert.

Planen: Neben dem Suchen von Lösungen stellt das Planen einen wichtigen Aspekt der KI dar. Der Vorgang des Planens unterteilt sich dabei in zwei Phasen:

Die Zielformulierung: Ausgehend vom momentanen Umgebungs- bzw. Weltzustand wird ein Ziel definiert. Ein Ziel ist hierbei eine Menge von Weltzuständen, bei der ein bestimmtes Zielprädikat erfüllt ist. Die Problemformulierung: Nachdem bekannt ist, welche Ziele angestrebt werden sollen, wird in der Problemformulierung festgelegt, welche Aktionen und Weltzustände betrachtet werden sollen. Es existieren hierbei ver- schiedene Problemtypen. Planungssysteme planen und erstellen aus solchen Problembeschreibungen Aktionsfol- gen, die Agentensysteme ausführen können, um ihre Ziele zu erreichen.

Optimierungsmethoden: Oft fuhren Aufgabenstellungen der KI zu Optimierungspro- blemen. Diese werden je nach Struktur entweder mit Suchalgorithmen aus der Informa- tik oder, zunehmend, mit Mitteln der mathematischen Programmierung gelöst. Bekann- te heuristische Suchverfahren aus dem Kontext der KI sind evolutionäre Algorithmen.

Logisches Schließen: Eine Fragestellung der KI ist die Erstellung von Wissensrepräsen- tationen, die dann für automatisches logisches Schließen benutzt werden können. Menschliches Wissen wird dabei - soweit möglich - formalisiert, um es in eine ma- schinenlesbare Form zu bringen. Diesem Ziel haben sich die Entwickler diverser Onto- togien verschrieben. Schon früh beschäftigte sich die KI damit, automatische Beweissy- steme zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sät- zen und beim Programmieren (Logikprogrammierung) behilflich wären.

Zwei Schwierigkeiten zeichneten sich ab: Formuliert man Sätze in den natürlicher Sprache nahen, relativ bequemen Beschreibungssprachen, werden die entstehenden Suchprobleme allzu aufwändig. In der Praxis mussten Kompromisse geschlossen wer- den, bei denen die Beschreibungssprache für den Benutzer etwas umständlicher, die zu- gehörigen Optimierungsprobleme für den Rechner dafür jedoch einfacher zu handhaben waren (Prolog, Expertensysteme).

Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsi- cheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln der Wahrscheinlichkeitsrechnung anwenden, um Unwissen und Unsicher- heit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden von den älteren Verfahren: neben Symbolen werden auch Wahrscheinlichkeitsverteilungen ma- nipuliert.

Eine andere Form des logischen Schließens stellt die Induktion dar (Induktionsschluss, Induktionslogik), in der Beispiele zu Regeln verallgemeinert werden (maschinelles Ler- nen). Auch hier spielen Art und Mächtigkeit der Wissensrepräsentation eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen - so- wohl die Beispiele als auch die induzierten Regeln - explizit repräsentiert ist, und sub- symbolischen Systemen wie neuronalen Netzen, denen zwar ein berechenbares Verhal- ten„antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlau- ben.

Approximationsmethoden: In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten (maschinelles Lernen). Mathematisch fuhrt dies zu einem Approximationsproblem. Im Kontext der KI wurden hierzu unter ande- rem künstliche neuronale Netze vorgeschlagen, die als universale Funktionsapproxima- toren eingesetzt werden können, jedoch insbesondere bei vielen verdeckten Schichten schwer zu analysieren sind. Manchmal verwendet man deshalb alternative Verfahren, die mathematisch einfacher zu analysieren sind.

Künstliches Neuronales Netz: Große Fortschritte erzielt die künstliche Intelligenz in jüngster Zeit im Bereich künstlicher neuronaler Netze, auch unter dem Begriff Deep Leaming bekannt. Dabei werden neuronale Netze, die grob von der Struktur des Ge- hirns inspiriert sind, künstlich auf dem Computer simuliert. Viele der jüngsten Erfolge wie bei Handschrifterkennung, Spracherkennung, Gesichtserkennung, autonomem Fah- ren, maschineller Übersetzung, auch der Erfolg von AlphaGo beruhen auf dieser Tech- nik.

Für künstliche Intelligenz gibt es zahlreiche Anwendungsgebiete. Einige Beispiele kurz zusammengefasst:

-Suchmaschinen erleichtern den Umgang mit der im Internet vorhandenen Informa- tionsflut.

-Bei der Exploration von Ölquellen, der Steuerung von Marsrobotem oder der medizi- nischen Diagnose werden Expertensysteme eingesetzt.

-Maschinelle Übersetzung ist weit verbreitet. Beispiele: Google Übersetzer, DeepL -Texterkennung und Textgenerierung, zum Beispiel von Eilmeldungen, Werbung oder für besonders strukturierte Daten

-Data-Mining und Text Mining bieten Methoden zur Extraktion von Keminformationen -aus nicht- oder nur schwach strukturierten Texten, wie es etwa zur Erstellung von In- haltsanalysen benötigt wird.

-Informationsrückgewinnung hat das Wiederauffinden und Zusammenführen bereits bestehender, komplexer Strukturen in sehr großen Datensätzen zum Ziel, ein Anwen- dungsgebiet sind Intemet-Suchmaschinen.

-Analyse und Prognose von Aktienkursentwicklungen werden gelegentlich durch künst- liche neuronale Netze unterstützt.

-Optische Zeichenerkennung liest gedruckte Texte zuverlässig.

-Handschrifterkennung wird u. a. millionenfach in Geräten wie PDAs, Smartphones und Tabletcomputern verwendet.

-Spracherkennung ermöglicht Sprachsteuerung oder das Diktieren eines Textes. Wird u. a. in Smartphones eingesetzt, z. B. bei Siri, Google Assistant, Cortana und Samsungs Bixby oder auch Amazon Alexa.

-Gesichtserkennung, z. B. die App FindFace.

-Bilderkennung, z. B. das automatische taggen von Bildern bei Flickr oder Cloud Visi- on API von Google.

-Computeralgebrasysteme, wie Mathematica oder Maple, unterstützen Mathematiker, Wissenschaftler und Ingenieure bei ihrer Arbeit.

-Computer-Vision-Systeme überwachen öffentliche Plätze, Produktionsprozesse oder sichern den Straßenverkehr.

In Computerspielen dienen die Algorithmen, die in der KI entwickelt wurden, dazu, computergesteuerte Mitspieler intelligent handeln zu lassen (siehe auch KI in Compu- terspielen)Bei Gruppensimulationen für Sicherheitsplanung oder Computeranimation wird ein möglichst realistisches Verhalten von (Menschen -)Massen berechnet.

Ein wissensbasiertes System bzw. spezieller ein Expertensystem stellt Lösungen bei komplexen Fragestellungen zur Verfügung. Beispiele für solche Anwendungen sind: Das Computerprogramm Watson (siehe weiter oben) oder die Wissensdatenbank Cyc. In einfacherer Form wird dies u. a. in Smartphones eingesetzt z. B. bei Siri, Google Now, Cortana und Samsungs S Voice oder auch Amazon Echo.

Semantische Suchmaschinen, wie Wolfram Alpha

Selbstfahrende Kraftfahrzeuge, z. B. Google Driverless Car (siehe oben)

Humanoide Roboter, z. B. Atlas, ASIMO, Pepper

Bots, insbesondere social Bots (z. B. cleverbot)

autonome Waffen

Intelligenter Persönlicher Assistent (oder auch digitaler Sprachassi stent)

Suche nach extrasolaren Planeten durch Auswertung von Helligkeitsschwankungen von

SterKI in der Juristik- Ein großer Teil der Arbeit von Juristen besteht in der Analyse von Akten, zum Beispiel von Präzedenzfällen, um daraus Argumente zu entwickeln. Derartige Arbeit kann mittlerweile zu einem Teil von KIs übernommen werden. Die Beratungsfirma McKinsey schätzt, dass derzeit (2017) etwa 22 Prozent der Arbeit von Anwälten und 35 Prozent der Arbeit von Rechtshelfem mit Hilfe von KIs automatisiert werden könnte. Die KIs werden anhand von Millionen von Dokumenten und Fallbei- spielen und juristischen Anträgen trainiert. Danach kann eine KI diejenigen Dokumente markieren, die ein Jurist für seinen Fall braucht; oft besser, als dies ein Mensch könnte. JPMorgan gab bekannt, die KI Contract Intelligence einzusetzen, welche nach Aussa- gen von JPMorgan eine Menge von Daten in Sekunden analysieren kann, wofür Juri- sten und Rechtshelfer 360.000 Stunden benötigen würden.

Ein weiteres Anwendungsfeld ist künstliche Intelligenz in der Medizin, siehe dazu Le- xikoneinträge KI in der Medezin oder Medizintechnik.

Im Marketing wird künstliche Intelligenz eingesetzt, um zum Beispiel Werbe-Emails zu verschicken, den Kundendienst durch Social Bots und Chatbots abzulösen, Analysen und Prognosen des Markts und des Kunden, beispielsweise auf Basis von Big Data, durchzuführen und kundenspezifische Werbeanzeigen, Empfehlungen und Suchergeb- nisse, sowie programmierte Abläufe zu entwickeln. So beabsichtigte der Online- Versandhändier Zalando bereits im März 2018, 250 Arbeitsplätze im Marketingbereich im Standort Berlin zu streichen, die durch künstliche Intelligenz ersetzt werden sollen.

In Computerspielen wird eine KI meistens dazu verwendet um Bots, sogenannte Nicht- Spieler-Charaktere, die menschenähnliches Verhalten simulieren (zum Beispiel als si- mulierte Verbündete oder Computergegner) zu steuern oder bestimmte Dinge in der Spielwelt oder bei den Funktionen des Spielecharakters (zum Beispiel Routenfmdung, prozedurale Generierung, automatische Verbesserungen und Vervollständigungen beim Streckenbau oder andere Algorithmen) zu berechnen. Bei einigen Spielen lässt sich der Schwierigkeitsgrad der KI-Gegner einstellen und optional wählen ob man gegen eine KI, gegen echte Spieler oder eine Mischform spielen möchte.

Bei ein paar Spielen kann sich die KI auch automatisch an das Spielverhalten anpassen oder kann aus Fehlern lernen. Da im Einzelspieler-Modus oft Gegner fehlen, wird auf eine KI zurückgegriffen. Zudem wird KI in Computerspielen verwendet um viele oder sehr spezielle Charaktere zu simulieren, die nicht oder sehr schwer von echten Men- schen übernommen werden könnten. Teilweise lassen sich KIs in Computerspielen aber auch einfach austricksen, da ein Mensch ein bestimmtes Muster einer KI umgehen kann. Der Realismus und das Gameplay eines Computerspiels wird daher auch oft an der KI gemessen.

Auch wird KI in Strategie-Brettspielen als Ersatz für den menschlichen Partner einge- setzt. Gegen sehr leistungsfähige Versionen dieser Programme haben auch Weltmeister kaum Gewinnchancen. Erfolge gegen menschliche Profispieler erzielte KI zum Beispiel in Backgammon, Schach, Checkers und Go. Das Meistern komplexer Spiele ist oft Ge- genstand der Forschung, um so neue Methoden der künstlichen Intelligenz zu entwik- keln und zu demonstrieren.

Inzwischen tragen diese Programme Partien untereinander aus. Ende 2017 hat die Neu- entwicklung AlphaZero gegen das bis dahin weitbeste Schachprogramm Stockfish in 100 ausgetragenen Partien deutlich obsiegt. Darüber hinaus werden auch KIs entwik- kelt, die anstelle eines menschlichen Spielers Videospiele wie Jump’n’ Runs, Rollen- spiele oder Rennspiele steuern. Ähnlich ist die Entwicklung im E-Sport-Bereich, in dem Profigamer versuchen, die besten KIs zu schlagen, während Entwickler darauf hinarbei- ten, die besten Spieler durch eine KI zu besiegen.

Forscher aus Tübingen haben neuronale Netze dazu verwendet, ein vorgegebenes Foto im Stil eines berühmten Künstlers zu malen z. B. Van Gogh oder Edvard Munch. [24] Forscher bei Google haben neuronale Netze darauf trainiert, aus einer Art weißem Rau- schen Bilder im Stil von Van Gogh und anderen Künstlern zu produzieren. Die Bilder wurden später auf einer Auktion versteigert.

Im Juli 2017 stellten Forscher der Rutgers Universität eine KI vor, die künstlerische Gemälde produziert. Die KI wurde mit vielen Gemälden berühmter Maler verschiede- ner Epochen trainiert. In einem Blindtest wurden die von der KI erstellten Gemälde mit von Künstlern von der Kunstmesse Art Basel erstellten Gemälden vermischt und 18 Experten in einem Blindtest zur Beurteilung vorgelegt. Die Jury beurteilte die Gemälde von der KI insgesamt besser als die von den Künstlern für die Art Basel erstellten Ge- mälde.

Der Autor George R. R. Martin schreibt derzeit an seinem sechsten Buch der Reihe Game of Thrones, das von der Fangemeinde ungeduldig erwartet wird. Der Program- mierer Zack Thoutt trainierte nun eine KI (Recurrent Neural Net) mit den ersten fünf Büchern der Serie und ließ von der KI das sechste Buch schreiben. Das Ergebnis wurde im Sommer 2017 im Internet veröffentlicht. Dabei hat die KT einzelne Charaktere ge- nauso weiterentwickelt, wie das in manchen Fan-Theorien erwartet wurde ohne dass die KI davon wusste. Mängel gibt es bei der Grammatik, einzelne Charaktere, die bereits verstorben waren, tauchen wieder auf und die Handlungsstränge sind nicht sehr span- nend.

Sunspring ist der erste Kurzfilm (2016), dessen Drehbuch von einer KI geschrieben wurde. Google versucht in seinem Magenta-Projekt, KIs zu erzeugen, die kreativ sind. So wurde im Sommer 2017 eine Klavier-Improvisation vorgestellt, die von einer KI komponiert wurde. Bereits im Sommer 2016 veröffentlichte das Projekt Magenta einen kurzen Pop-Song, der von einer KI komponiert wurde.

Die Musik des Albums„I am AI“ der Sängerin Taryn Southern, vorgestellt im Herbst 2017, wurde von einer KI komponiert. Um einen Song mit Hilfe einer KI zu komponie- ren, verwendet man eine Software wie etwa Amper Music oder Jukedeck, wählt das Genre und weitere Paramenter wie Länge des Songs, Instrumentierung usw. Innerhalb von Sekunden komponiert die KI dann einen einzigartigen Song. Ein Musiker kann daraufhin Bruchstücke dieser Beispiele zu einem eigenen Song zusammenfügen. Somit kann jedermann mehr oder weniger professionelle Musik kreieren. Immer mehr Musi- ker geben zu, beim Komponieren KIs als Werkzeug zu benutzen. Auch das Album „Hello World“ von Skygge wurde vollständig mit einer KI (Flow-Machine) kompo- niert. Die KI komponiert Soundstücke, die dann von Menschen sortiert, selektiert und zusammengesetzt werden, das sog. Kuratieren.

Um ein Kriterium zu haben, wann eine Maschine eine dem Menschen gleichwertige In- telligenz simuliert, wurde von Alan Turing der nach ihm benannte Turing-Test vorge- schlagen. Dabei stellt ein Mensch per Terminal beliebige Fragen an einen anderen Menschen bzw. eine KI, ohne dabei zu wissen, wer jeweils antwortet. Der Fragesteller muss danach entscheiden, ob es sich beim Interviewpartner um eine Maschine oder ei- nen Menschen handelte. Ist die Maschine nicht von dem Menschen zu unterscheiden, so ist laut Turing die Maschine intelligent. Bisher konnte keine Maschine den Turing-Test zweifelsfrei bestehen. Seit 1991 existiert der Loebner-Preis für den Turing-Test. Technologische Singularität: Grob wird darunter der Zeitpunkt verstanden, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft. Von diesem Zeitpunkt wird die weitere Entwicklung hauptsächlich von der KI vorangetrieben und nicht mehr vom Menschen. Superintelligenz: Eine Superintelligenz bezeichnet ein Wesen oder eine Maschine mit einer dem Menschen in vielen oder allen Gebieten überlegenen Intelligenz. Der Begriff wird häufig im Bereich künstlicher Intelligenz angewendet.

Vergleich künstlicher Intelligenz mit menschlicher Intelligenz : Nach Wolfgang Wahl- ster muss man die menschliche Intelligenz in verschiedene Bereiche unterteilen: die ko- gnitive Intelligenz, die sensomotorische Intelligenz, die emotionale Intelligenz, die so- ziale Intelligenz.

Kognitive Intelligenz: Bei der kognitiven Intelligenz ist die Maschine dem Menschen schon in vielen Bereichen überlegen. Zu diesem Bereich gehört das Schachspiel, das Spiel von Go und sonstige Brettspiele. Letztlich das Aufnehmen und Erlernen von Wis- sen, das Kombinieren aus diesem Wissen und das Schlussfolgern aus diesem Wissen. Das entspricht oft dem, was Menschen sich in einer akademischen Ausbildung aneig- nen.

Sensomotorische Intelligenz: Bei dieser Intelligenz ist der Mensch der Maschine noch überlegen, allerdings sind manche Maschinen in Bereichen einzelner Sensoren überle- gen. Grundsätzlich ist das menschliche Auge sehr gut ausgebildet. Aber eine geeignete Videokamera kann etwa auch Licht im Infrarotbereich und UV -Bereich verarbeiten, was ein Mensch nicht kann. In der Akustik können Mikrofone wesentlich geringere Lautstärken oder in Frequenzbereichen aufnehmen als das menschliche Ohr. Stärker gilt dies noch bei Geruch- und Geschmackssinn, wo maschinelle Sensoren deutlich überle- gen sind. Jedoch kann ein Mensch diese Sinneseindrücke kombinieren (Sensorfusion), was eine Maschine bislang nur wenig kann. Dies könnte sich jedoch innerhalb weniger Jahre ändern.

Emotionale Intelligenz: Auf diesem Gebiet leistet die Maschine bislang fast nichts. Der Mensch kann sich in einen anderen Menschen hineinfühlen, Sympathie und Empathie, Mitgefühl, Mitleid, Trauer, Angst, Freude empfinden, Liebesgedichte schreiben, Zom- ausbrüche haben usw. Was Maschinen heute allerdings schon in Ansätzen können, ist die sog. Sentimentanalyse, d. h. durch Beobachtung der menschlichen Körpersprache, also des Gesichts, der Gestik usw. die Emotionen eines Menschen„lesen“.

Soziale Intelligenz: Das ist die Fähigkeit, in einer menschlichen Gruppe angemessen zu (re-)agieren, etwa eine Stimmung zu erkennen oder konstruktiv zu beeinflussen, z. B. den Teamgeist. Eine Fähigkeit, die meist bei Unternehmern aber auch Politikern stark ausgeprägt ist. Auf diesem Gebiet kann die Maschine bislang nichts leisten.

Bewusstsein bei künstlicher Intelligenz: In den Neurowissenschaften ist es eine Grund- annahme, dass das Bewusstsein ein Produkt unseres Gehirns ist (siehe Neuronales Kor- relat des Bewusstseins). Nach Jürgen Schmidhuber ist das Bewusstsein nur ein Neben- produkt des Problemlösens des Gehirns. So sei auch bei künstlichen Problemlosem (z. B. autonomen mobilen Robotern) von Vorteil, wenn diese sich ihrer selbst und ihrer Umgebung„bewusst“ seien. Schmidhuber bezieht sich bei„Bewusstsein“ im Kontext autonomer Roboter auf ein digitales Weltmodell inklusive des Systems selbst, nicht je- doch auf das Erleben von Zuständen. Ein Weltmodell könnte im Kontext von Rein- forcement Leaming dadurch erlernt werden, dass Aktionen belohnt werden, die das Weltmodell erweitern. Sprachwissenschaft: Die Interpretation menschlicher Sprache durch Maschinen besitzt bei der KI-Forschung eine entscheidende Rolle. So ergeben sich etwaige Ergebnisse des Turing-Tests vor allem in Dialogsituationen, die bewältigt werden müssen.

Die Sprachwissenschaft liefert mit ihren Grammatikmodellen und psycholinguisti sehen Semantikmodellen wie der Merkmals- oder der Prototypensemantik Grundlagen für das maschinelle„Verstehen“ komplexer natürlichsprachlicher Phrasen. Zentral ist die Fra- ge, wie Sprachzeichen eine tatsächliche Bedeutung für eine künstliche Intelligenz haben können. Das Chinese-Room-Argument des Philosophen John Searle sollte indes zeigen, dass es selbst dann möglich wäre, den Turing-Test zu bestehen, wenn den verwendeten Sprachzeichen dabei keinerlei Bedeutung beigemessen wird. Insbesondere Ergebnisse aus dem Bereich Embodiment betonen zudem die Relevanz von solchen Erfahrungen, die auf der Verkörperung eines Agenten beruhen sowie des- sen Einbindung in eine sinnvolle Umgebung für jede Form von Kognition, also auch zur Konstruktion von Bedeutung durch eine Intelligenz. Eine Schnittstelle zwischen der Linguistik und der Informatik bildet die Computerlinguistik, die sich unter anderem mit maschineller Sprachverarbeitung und künstlicher Intelligenz beschäftigt.

Psychologie: Die Psychologie beschäftigt sich unter anderem mit dem Intelligenzbe- griff.

Psychotherapie: In der Psychotherapieforschung existieren bereits seit geraumer Zeit experimentelle Anwendungen der künstlichen Intelligenz, um Defizite und Engpässe in der psychotherapeutischen Versorgung zu überbrücken und Kosten zu sparen. [40] Aber auch um sich anbahnende Krisen bei Patienten auf der Warteliste frühzeitig zu erken- nen.

Philosophie: Die philosophischen Aspekte der KI-Problematik gehören zu den weitrei- chendsten der gesamten Informatik. Die Antworten, die auf die zentralen Fragen dieses Bereiches gegeben werden, reichen weit in ontologische und erkenntnistheoretische Themen hinein, die das Denken des Menschen schon seit den Anfängen der Philosophie beschäftigen. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt Vorgehen und die Antworten, die man vor der Entwicklung künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die künstliche Intelligenz zahlreiche Forscher da- zu veranlasst, Probleme wie das Verhältnis zwischen Materie und Geist, die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, das Problem der Emergenz, die Mög- lichkeit außermenschlicher Intelligenz usw. in einem neuen Licht zu betrachten und zum Teil neu zu bewerten.

Eine dem metaphysischen bzw. auch idealistischen Denken verpflichtete Sichtweise hält es (im Sinn einer schwachen KI) für unmöglich, dass Maschinen jemals mehr als nur simuliertes Bewusstsein mit wirklicher Erkenntnis und Freiheit besitzen könnten. Aus ontologischer Sicht kritisiert der amerikanische Philosoph Hubert Dreyfus die Auf- fassung der starken KI. Aufbauend auf der von Martin Heidegger in dessen Werk Sein und Zeit entwickelten Ontologie der„Weltlichkeit der Welt“ versucht Dreyfus zu zei- gen, dass hinter das Phänomen der Welt als sinnhafte Bedeutungsganzheit nicht zu- rückgegangen werden kann: Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, sei ein Emergenzphänomen, denn es gibt nicht„etwas Sinn“ und dann„mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe, die sinnhaften Beziehungen zwischen den Dingen der Welt in einen Computer einzuprogrammieren, als eigentlich unmögliches bzw. unendliches Vorhaben. Dies deshalb, weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann.

Eine evolutionär-progressive Denkrichtung sieht es hingegen (im Sinn einer starken KI) als möglich an, dass Systeme der künstlichen Intelligenz einmal den Menschen in dem übertreffen könnten, was derzeit noch als spezifisch menschlich gilt. Dies birgt zum ei- nen die Gefahr, dass solche KI-Maschinen sich gegen die Interessen der Menschen wenden könnten. Andererseits birgt diese Technologie die Chance, Probleme zu lösen, deren Lösung dem Menschen wegen seiner limitierten Kapazitäten schwerfallt (siehe auch technologische Singularität).

Weitere Anknüpfungspunkte lassen sich in der analytischen Philosophie finden. Neben der Frage nach dem Sein und der nach dem Bewusstsein stellt sich im Rahmen der Rechtsphilosophie und Roboterethik auch die Frage, ob eine KI für ihr gesetzwidriges Handeln oder Fehlverhalten verantwortlich gemacht werden kann (z. B. bei einem Au- tounfall durch ein autonomes Fahrzeug) und wer alles dafür haftet. Entwickler werden mit der Frage konfrontiert, wie eine KI moralisch und ethisch richtig handelt. So wird zum Beispiel überlegt, wie man das Trolley-Problem bei autonomen Fahrzeugen lösen soll.

Der russisch-amerikanische Biochemiker und Sachbuchautor Isaac Asimov beschreibt in seinen drei Robotergesetzen die Voraussetzungen für ein friedliches und unterstüt- zendes Zusammenleben zwischen KI und Mensch. Diese Gesetze wurden später von anderen Autoren erweitert.

Informatik: Die Künstliche Intelligenz ist mit den anderen Disziplinen der Informatik eng verzahnt. Eine Abgrenzung kann anhand der erzielten Ergebnisse versucht werden. Hierzu scheint es sinnvoll, verschiedene Dimensionen von Intelligenz zu unterscheiden:

-Die Fähigkeit zur Verarbeitung beliebiger Symbole (nicht nur Zahlen).

-Der Aufbau eines inneren Modells der äußeren Welt, eines Selbstmodells, sowie der Beziehung von Selbst und Welt.

-Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens.

-Die Fähigkeit, die im gespeicherten Wissen enthaltenen Zusammenhänge aufzudecken, d. h. logisch schlussfolgern zu können.

-Die Fähigkeit zur Verallgemeinerung (Abstraktion) und zur Spezialisierung (d. h. zu - Anwendung allgemeiner Zusammenhänge auf konkrete Sachverhalte).

-Das Vermögen, erworbenes Wissen und vorhandene Erfahrung auf neue, bisher unbe- kannte Situationen zu übertragen.

-Die Fähigkeit, sich planvoll zu verhalten und entsprechende Strategien zum Erreichen der Ziele bilden zu können.

-Anpassungsfähigkeit an verschiedene, u. U. sich zeitlich ändernde Situationen und Problemumgebungen.

-Lernfähigkeit, verbunden mit dem Vermögen, partiellen Fortschritt oder Rückschritt einschätzen zu können.

-Die Fähigkeit, auch in unscharf bzw. unvollständig beschriebenen oder erkannten Si- tuationen handeln zu können.

-Die Fähigkeit zur Mustererkennung (Besitz von Sensoren) und zur aktiven Auseinan- dersetzung mit der Umwelt (Besitz von Effektoren).

-Über ein Kommunikationsmittel von der Komplexität und Ausdrucksfahigkeit der menschlichen Sprache verfügen. Kritik an der KI -Forschung: Stephen Hawking warnte 2014 vor der KI und sieht darin eine Bedrohung für die Menschheit. Durch die KI könnte das Ende der Menschheit ein- geleitet werden. Ob die Maschinen irgendwann die Kontrolle übernehmen werden, werde die Zukunft zeigen. Aber bereits heute sei klar, dass die Maschinen die Men- schen zunehmend vom Arbeitsmarkt verdrängen.

Im August 2017 forderten 116 Unternehmer und Experten aus der Technologiebranche (u. a. Mustafa Suleyman, Elon Musk, Yoshua Bengio, Stuart Russell, Jürgen Schmid- huber) in einem offenen Brief an die UN, dass autonome Waffen verboten werden soll- ten bzw. auf die seit 1983 bestehende CCW-Liste gesetzt werden sollen. Die Certain Conventional Weapons sind von der UN verboten und beinhalten unter anderem Che- miewaffen. Nach Schwarzpulver und der Atombombe drohe die dritte Revolution der Kriegsführung. Zitat aus dem Schreiben:„Wenn diese Büchse der Pandora einmal ge- öffnet ist, wird es schwierig, sie wieder zu schließen“ und„Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“. Terroristen und Despoten könnten die autonomen Waffen nutzen und sogar hacken.

Argumentativ entgegengetreten sind solchen Positionen u. a. Rodney Brooks und Jean- Gabriel Ganascia.

Im Februar 2018 wurde ein Bericht einer Projektgruppe führender Experten im Bereich KI veröffentlicht, der vor möglichen ,,Bösartige[n] Nutzungen künstlicher Intelligenz“ (englischer Originaltitel:„The Malicious Use of Artificial Intelligence“) warnt. Betei- ligt waren daran unter anderem Forscher der Universitäten von Oxford, Yale und Stan- ford, sowie Entwickler von Microsoft und Google. Der Bericht nimmt Bezug auf schon existierende Technologien und demonstriert anhand von diversen Szenarien, wie diese von Terroristen, Kriminellen und despotischen Regierungen missbraucht werden könn- ten. [52] Die Autoren des Berichts fordern daher eine engere Zusammenarbeit von For- schem, Entwicklern und Gesetzgeber im Bereich KI und schlagen konkrete Maßnah- men vor, wie die Gefahren des Missbrauchs verringert werden könnten. Vorschläge zum Umgang mit KI: Der Präsident von Microsoft, Brad Smith schlug vor, einen Verhaltenskodex aufzustellen, wie etwa eine Digitale Genfer Konvention, um Ri- siken der Künstlichen Intelligenz zu verringern. Der Ethiker Peter Dabrock empfiehlt im Kontext der Benutzung und Programmierung von Künstlicher Intelligenz nicht nur die digitale Kompetenz der Beteiligten zu erhöhen, sondern auch auf klassische Bil- dungselemente zu setzen. Um mit den dazugehörigen Herausforderungen zurechtzu- kommen sowie die Fähigkeiten zur Unterscheidung und zur Erkennung von Mehrdeu- tigkeit zu erhöhen, seien Kenntnisse aus Religion, Literatur, Mathematik, Fremdspra- chen, Musik und Sport eine gute Voraussetzung.

KI in Deutschland: Das Bundesministerium für Arbeit und Soziales gründete in Deutschland für 2019 eine KI -Prüfstelle. Im Jahr 2020 ist die offizielle Eröffnung durch SPD-Arbeitsminister Hubertus Heil angesetzt. Das sogenannte KI-“Observatorium” ist im ersten Schritt als eigenständige Einheit im Bundesministerium für Arbeit und Sozia- les (kurz auch bekannt als“BMAS”) angesiedelt. Seine Aufgabe soll die Überprüfung künstlicher Intelligenzen sein und KI-Projekte wie eine Art TÜV prüfen. Ziel sei ein eu- ropaweites Netz kooperierender KI-Bewertungsstellen zu errichten. Ziel sei es auch Deutschland wettbewerbsfähig zu machen, um KI-Projekte mit Potential zu fordern.

Darstellung in Film und Literatur: Seit der Klassischen Moderne wird KI in Kunst, Film und Literatur behandelt. Dabei geht es bei der künstlerischen Verarbeitung - im Gegen- satz zur KI-Forschung, bei der die technische Realisierung im Vordergrund steht - vor allem um die moralischen, ethischen und religiösen Aspekte und Folgen einer nicht- menschlichen,„maschinellen Intelligenz“. In der Renaissance wurde der Begriff des Homunculus geprägt, eines künstlichen Miniaturmenschen ohne Seele. Im 18. und 19. Jahrhundert erschienen in der Literatur menschenähnliche Automaten, beispielsweise in E. T. A. Hoffmanns Der Sandmann und Jean Pauls Der Maschinenmann.

Im 20. und 21. Jahrhundert greift die Science-Fiction in Film und Prosa das Thema mannigfach auf. 1920 prägte der Schriftsteller Karel Capek den Begriff in seinem Büh- nenstück R.U.R.; 1926 thematisierte Fritz Lang in Metropolis Roboter, welche die Ar- beit der Menschen übernehmen.

Dem Filmpublikum wurden in den unterschiedlichen Werken die Roboter als intelligen- te und differenzierte Maschinen mit ganz unterschiedlichen Persönlichkeiten präsen- tiert: Sie werden entwickelt, um sie für gute Zwecke einzusetzen, wandeln sich aber häufig zu gefährlichen Maschinen, die feindselige Pläne gegen Menschen entwickeln. Im Lauf der Filmgeschichte werden sie zunehmend zu selbstbewussten Wesen, die sich die Menschheit unterwerfen wollen.

Eine weitere Form künstlerischer Auseinandersetzung mit KI stellt die Litauische Künstlerrepublik Uzupis dar. In ihrer Münchener Botschaft fungiert der künstlich intel- ligente Forschungs-Humanoide„Roboy“ als Konsul und die Verfassung enthält einen eigenen Artikel über künstliche Intelligenz (“Any artificial intelligence has the right to believe in a good will of humanity [The Munich Article].”

Beispiele (Auswahl)

HAL 9000 in 2001 : Odyssee im Weltraum (1968)

Colossus und Guardian in Colossus (1970)

Die Androiden in Westworld (1973) und Westworld (2016)

Die sprechenden Bomben in Dark Star (1974)

Der Supercomputer Golem aus den Büchern Golem XIV und Also sprach Golem von Stanislaw Lern (1981)

Master Control Programm in Tron (1982)

Skynet in der Terminator-Filmreihe (ab 1984)

Nummer 5 in den Filmen Nummer 5 lebt! (1986) und Nummer 5 gibt nicht auf (1988) Android Data in Raumschiff Enterprise - Das nächste Jahrhundert (1987-1994) Sämtliche Programme (Orakel, Architekt, Agent etc.) in The Matrix (1999)

Andrew Martin in Der 200 Jahre Mann (2000)

Die Hauptfigur in A.I. - Künstliche Intelligenz von Steven Spielberg (2001)

Minority Report (2002) Red Queen und White Queen in den Resident-Evil-Filmen (seit 2002)

Sonny in I, Robot (2004)

Deep Thought in Per Anhalter durch die Galaxis (2005)

Person of Interest (ab 2011)

Real Humans - Echte Menschen (seit 2012)

Samantha in Her (2013)

Ava in Ex Machina (2015)

Humans (2015)

A.R.E.S. in Schätzings Roman Die Tyrannei des Schmetterlings (2018)

Androiden im Videospiel Detroit: Beco e Human (2018)

Soziale Auswirkungen: Im Zuge der industriellen Revolution wurde durch die Erfin- dung der Dampfmaschine die Muskelkraft von der Maschine ersetzt (PS durch Watt). Durch die digitale Revolution könnte die menschliche Denkleistung durch maschinelle KI ersetzt werden. Der amerikanische Unternehmer Elon Musk prognostiziert, dass es zukünftig immer weniger Erwerbsarbeit geben wird, die nicht von einer Maschine bes- ser und günstiger gemacht werden kann, weshalb immer weniger Arbeitskräfte benötigt würden. Durch die weitgehend maschinelle Produktion würden die Produkte und Dienstleistungen sehr billig werden.

In diesem Zusammenhang unterstützt er die Einführung eines bedingungslosen Grund- einkommens. Der Physiker Stephen Hawking meinte: Bereits heute sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen. Microsoft- Gründer Bill Gates sieht die Entwicklung ähnlich. Er fordert eine Robotersteuer, um die sozialen Aufgaben der Zukunft bewältigen zu können.

Die Informatikerin Constanze Kurz erklärte in einem Interview, technischen Fortschritt habe es schon immer gegeben. Jedoch vollzog sich der technische Wandel in der Ver- gangenheit meist über Generationen, so dass genug Zeit blieb, sich für neue Aufgaben auszubilden. Heute verläuft der technische Wandel innerhalb von wenigen Jahren, so dass die Menschen nicht genug Zeit haben, sich für neue Aufgaben weiter zu bilden. Der Sprecher des Chaos Computer Clubs, Frank Rieger, warnte in verschiedenen Publi- kationen (z. B. dem Buch Arbeitsfrei) davor, dass durch die beschleunigte Automatisie- rung vieler Arbeitsbereiche in naher Zukunft immer mehr Menschen ihre Beschäftigung verlieren werden (z. B. LKW-Fahrer durch selbstfahrende Autos).

Darin besteht unter anderem eine Gefahr der Schwächung von Gewerkschaften, die an Mitgliedern verlieren könnten. Rieger plädiert daher fiir eine„Vergesellschaftung der Automatiserungsdividende“, also einer Besteuerung von nichtmenschlicher Arbeit, da- mit durch das Wachstum der Wirtschaft in Form eines Grundeinkommens auch der all- gemeine Wohlstand wächst und gerecht verteilt wird.

Wissenschaftler der Universität Oxford haben in einer Studie im Jahr 2013 eine Viel- zahl von Jobs auf ihre Automatisierbarkeit überprüft. Dabei unterteilten die Wissen- schaftler die Jobs in verschiedene Risikogruppen. 47 Prozent der betrachteten Jobs in den USA wurden in die höchste Risikogruppe eingeteilt, d. h. dass für diese Jobs das Risiko sehr hoch ist, innerhalb der nächsten ein oder zwei Jahrzehnte (Stand 2013) au- tomatisiert zu werden.

Jack Ma, der Gründer des chinesischen Internetkonzems Alibaba, mahnte in einem Vortrag, dass die Menschen sich auf erhebliche Umbrüche im Arbeitsmarkt vorbereiten sollten, weil die KJ die Welt verändern werde. In den letzten 200 Jahren habe das pro- duzierende Gewerbe und Dienstleistungen die Jobs geschaffen. Nun aber wegen der KIs und den Robotern, werden dort kaum noch Jobs entstehen. Jack Ma kritisierte die heu- tige Schulausbildung (er war früher Englischlehrer). Die Schüler würden nicht für die Notwendigkeiten von morgen ausgebildet, sondern immer noch auf eine Wirtschaft, die es bald nicht mehr gebe. Die Schulen würden die Arbeitslosen von morgen ausbilden. Es mache keinen Sinn, in Konkurrenz mit den KIs und Robotern treten zu wollen. Die Schüler sollten von den Schulen dazu ausgebildet werden, möglichst innovativ und kreativ zu sein. Jack Ma geht davon aus, dass die KIs viele Jobs zerstören, aber auch viele neue Jobs entstehen lassen würden. Die Frage sei, ob Schüler für diese neuen Jobs ausgebildet würden. Jürgen Schmidhuber antwortete auf die Frage, ob KIs uns bald den Rang ablaufen wer- den bzw. ob wir uns Sorgen um unsere Jobs machen müssten:„Künstliche Intelligenzen werden fast alles erlernen, was Menschen können - und noch viel mehr. Ihre neurona- len Netzwerke werden aus Erfahrung klüger und wegen der sich rasch verbilligenden Hardware alle zehn Jahre hundertmal mächtiger. Unsere formelle Theorie des Spaßes erlaubt sogar, Neugierde und Kreativität zu implementieren, um künstliche Wissen- schaftler und Künstler zu bauen.“ und„Alle fünf Jahre wird das Rechnen 10-mal billi- ger. Hält der Trend an, werden kleine Rechner bald so viel rechnen können wie ein menschliches Gehirn, 50 Jahre später wie alle 10 Milliarden Hirne zusammen.

“Als Konsequenz aus der aus seiner Sicht unabwendbar fortschreitenden Automatisie- rung und dem damit einhergehenden Wegfall von Erwerbsarbeitsplätzen sieht Schmid- huber die Notwendigkeit eines Bedingungslosen Grundeinkommens.„Roboterbesitzer werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben. Wer dies nicht bis zu einem gewis- sen Grad unterstützt, beschwört geradezu die Revolution Mensch gegen Maschine her- auf.“

Erik Brynjolfsson ist der Auffassung, das Aufkommen radikaler Parteien in den USA und Europa sei die Folge davon, dass viele Menschen heute schon nicht mehr mit dem technischen Fortschritt mithalten könnten. Wenn Menschen ihre Jobs verlieren, werden diese Menschen wütend, so Brynjolfsson. Auch er meint, dass in Zukunft die meisten Jobs von Maschinen erledigt werden.

Mark Zuckerberg äußerte bei einer Rede vor Harvard-Absolventen, dass die Einführung eines bedingungslosen Grundeinkommens notwendig sei. Es könne etwas nicht mehr in Ordnung sein, wenn er als Harvard-Abbrecher innerhalb weniger Jahre Milliarden ma- chen könne, während Millionen von Uni-Absolventen ihre Schulden nicht abbezahlen könnten. Es bräuchte eine Basis, auf der jeder innovativ und kreativ sein könne. Im November 2017 stellte der Deutsche-Bank -Chef John Cryan einen starken Stellen- abbau in Aussicht. Das Unternehmen beschäftigt 97.000 Menschen. Bereits in den letz- ten 12 Monaten wurden 4000 Stellen abgebaut. In naher Zukunft sollen 9000 weitere Stellen abgebaut werden. Mittelfristig sollen die Hälfte aller Stellen abgebaut werden. Cryan begründete diesen Schritt damit, dass die Konkurrenz bereits heute mit etwa der Hälfte der Mitarbeiter vergleichbare Leistung erbringe. Cryan sagte:„Wir machen zu viel Handarbeit, was uns fehleranfällig und ineffizient macht“. Vor allem durch das ma- schinelle Lernen bzw. künstliche Intelligenzen könnte das Unternehmen noch viel effi- zienter werden. Viele Banker arbeiteten ohnehin wie Roboter, so Cryan. An die Stelle qualifizierter Mitarbeiter sollen qualifizierte Maschinen treten, so Cryan.

Der Zukunftsforscher Lars Thomson prognostizierte im November 2017 für die näch- sten 10 Jahre gewaltige Umbrüche in Technologie, Arbeit, Werten und Gesellschaft. Im Jahr 2025 könne ein Haushalts-Roboter den Frühstückstisch decken, Fenster putzen, Pflegedienste übernehmen usw. wodurch Arbeitsplätze vernichtet werden. Heute schon gäbe es 181 Firmen weltweit, die an klugen Robotern arbeiten. Der Preis eines solchen Roboters betrage heute etwa 20.000 Euro. Der Markt der künstlichen Intelligenz werde in wenigen Jahren größer sein als der Automobilmarkt.

Wie schnell 10 Jahre vergingen, würde man sehen, wenn man 10 Jahre zurückblicke, als das erste Smartphone auf den Markt kam. Er bedauert, dass in unserer Gesellschaft kaum jemand diese Entwicklung erkenne, die unsere Gesellschaft komplett verändern werde. In Hotels werden in 10 Jahren Roboter die Arbeiten der heutigen Zimmermäd- chen übernehmen. Der Vorteil für den Hotelmanager: Der Roboter will keinen Lohn, keine freien Tage, muss nicht versteuert und versichert werden. Der Nachteil: Der Staat erhält keine Steuern mehr und die Menschen sind arbeitslos.

Deshalb werde man nicht an einem bedingungslosen Grundeinkommen vorbeikommen und der Einführung einer Robotersteuer. Thomson sieht die Gefahr einer Spaltung der Gesellschaft, wenn das Tempo der Veränderung die Wandlungsfähigkeit der Menschen übersteigt. Gleichzeitig werde die KI den Menschen von der Arbeit befreien. Die Ge- sellschaft müsse Leitplanken für die KIs definieren.

In einem Interview im Januar 2018 meinte der CEO von Google Sundar Pichai, die ak- tuelle Entwicklung der künstlichen Intelligenz sei für den Werdegang der Menschheit bedeutender als es die Entdeckung des Feuers und die Entwicklung der Elektrizität wa- ren. Durch die aktuelle Entwicklung der KI werde kein Stein auf dem anderen bleiben. Deshalb sei es wichtig, dass die Gesellschaft sich mit dem Thema auseinandersetze. Nur so könne man die Risiken eingrenzen und die Potentiale ausschöpfen. Google ge- hört derzeit zu den führenden Unternehmen im Bereich der KI. Allein der KI -Assistent von Google ist bereits auf hunderten Millionen Android-Smartphones installiert. Aber auch in den Suchmaschinen kommt KI derzeit bereits milliardenfach zum Einsatz. Die von Google gekaufte Firma DeepMind eilt bei der KI-Forschung von Meilenstein zu Meilenstein u. a. mit AlphaGo, AlphaGo Zero, AlphaZero.

Das Institut für Arbeitsmarkt- und Berufsforschung (IAB), das zur Bundesagentur für Arbeit gehört, hat in einer Studie von 4/2018 dargelegt, welche menschliche Arbeit in Deutschland von Maschinen ersetzt werden kann. Die Studie kommt zum Ergebnis, dass im Jahr 2016 25 Prozent der bezahlten menschlichen Tätigkeiten von Maschinen hätten erledigt werden können, was etwa 8 Millionen Arbeitsplätzen in Deutschland entspricht. Eine frühere Studie kam für das Jahr 2013 noch auf einen Wert von 15 Pro- zent. Am stärksten betroffen mit etwa 83 Prozent sind Fertigungsberufe aber auch un- temehmensbezogene Dienstleistungsberufe mit 60 Prozent, Berufe in der Untemeh- mensführung und -Organisation mit 57 Prozent, Berufe in Land- und Forstwirtschaft und Gartenbau mit 44 Prozent usw. Im Vergleich von 2013 zu 2016 sind besonders stark Logistik- und Verkehrsberufe gestiegen (von 36 auf 56 Prozent), ein Bereich, in dem in Deutschland etwa 2,4 Millionen Menschen beschäftigt sind. Insgesamt geht die Studie davon aus, dass in naher Zukunft 70 Prozent der menschlichen bezahlten Tätig- keiten von Maschinen übernommen werden könnten. Maschinen könnten z. B. über- nehmen: Wareneingangskontrolle, Montageprüfung, Kommissionierung, Versiche- rungsanträge, Steuererklärungen usw. Die Techniken, die diese Veränderungen vorantreiben seien: künstliche Intelligenzen, Big Data, 3-D Druck und virtuelle Realität. Auch wenn es nicht zu Entlassungen kom- men würde, so müssen Mitarbeiter zumindest mit starken Veränderungen in ihrem Be- rufsbild und damit starkem Umlemen rechnen. Es werden auch neue Berufsfelder ent- stehen. Auch werde nicht alles, was heute schon möglich ist, auch um gesetzt und schon gar nicht sofort. Ein Faktor für diese Verzögerung seien ethische und rechtliche Aspek- te aber auch die hohen Kosten der Automatisierung. Nicht immer ist die künstliche In- telligenz billiger als die menschliche Intelligenz.

In einem Gastbeitrag im Februar 2018 meinte der SAP -Chef Bill McDermott, dass sich die Menschen furchten würden vor den Veränderungen, die eine Welt mit Robotern und KIs mit sich bringt. Ein erster Meilenstein sei der Sieg der Maschine Deep Blue über den amtierenden Schachweltmeister Gary Kasparov im Jahr 1997 gewesen. Ein weite- rer Meilenstein sei der Sieg der Maschine Watson über den Menschen in der Quiz- Show Jeopardy im Jahr 2011 gewesen. Und der nächste große Schritt waren dann die Siege von AlphaGo und seinen Nachfolgern AlphaGo Zero und AlphaZero im Jahr 2016 und 2017.

Die tiefgreifenden Veränderungen, die KI auch am Arbeitsplatz mit sich bringen wür- den, seien heute nun in aller Munde. Um etwaige negative Auswirkungen der neuen Techniken auf die Gesellschaft zu vermeiden, verlangte es nun eine durchdachte Pla- nung. Behörden, Privatwirtschaft und Bildungswesen müssten Zusammenarbeiten, um junge Menschen die Fähigkeiten zu vermitteln, die diese in der digitalen Wirtschaft be- nötigen. Umschulungen und lebenslanges Lernen seien heute die neue Normalität. Jobs würden nicht komplett von Maschinen ersetzt werden, sondern meist in Teilbereichen. Es würden auch viele neue Jobs entstehen. Die wirtschaftliche Entwicklung würde durch die KI befeuert werden. Man rechnet für 2030 mit einer Wertschöpfung in dem Bereich von 16 Billionen Dollar und einem Wachstum des Bruttoinlandsprodukts um 26 Prozent. Durch die Automatisierung könnten Unternehmen zukünftig jährlich 3 bis 4 Billionen US-Dollar einsparen. Der Deutsche Bundestag hat am 28. Juni 2018 eine Enquete-Kommission Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche Potenziale eingesetzt, die bis zum Sommer 2020 einen Abschlussbericht mit Handlungsempfehlungen vorle- gen soll.

86. eCall

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) enthaltend wenigstens eine eCall -Funktion eCall (Kurzform für emergency call) ist ein von der Europäischen Union vorgeschrie- benes automatisches Notrufsystem für Kraftfahrzeuge, das die Hersteller ab dem 31. März 2018[2] in alle neuen Modelle von Pkw und leichten Nutzfahrzeugen einbauen müssen.[3] Im Fahrzeug montierte Geräte sollen einen Verkehrsunfall automatisch an die einheitliche europäische Notrufhummer 112 melden und durch die rascher initiier- ten Rettungsmaßnahmen die Zahl der Verkehrstoten senken. eCall ist ein wichtiges Pro- jekt der eSafety-Initiative der Europäischen Kommission. Im Jahr 1982 testete die Bundesanstalt für Straßenwesen (BASt) in der Bundesrepublik Deutschland ein ähnliches Notrufsystem für Kraftfahrzeuge, auch Auto-Notruf-System genannt. Dabei handelte es sich um ein kleines Notfunkgerät für Kraftfahrzeuge, das bei Unfällen die Rettungszeit verkürzen und damit auch zu verminderten Unfallfolgen und zur Rettung von Menschen beitragen sollte. Das Unternehmen AEG-Telefünken ent- wickelte beispielsweise mit AutoNotfunk ein Notfunkgerät, das im Armaturenbrett von Kraftfahrzeugen integriert werden konnte, und bei einem Unfall wurde per Funk die jeweilige zuständige Rettungsleitstelle informiert.

Das Funksignal sollte dabei von einer Relaisstation empfangen und der Standort des Kraftfahrzeugs mittels Peilmasten ermittelt werden. Die Kosten der hierfür notwendi- gen Einrichtung eines bundesweiten Netzes von Peilmasten und der Ausrüstung der Rettungsleitstellen wurden auf eine Milliarde DM geschätzt. Mit dem Auto-Notruf- System sollten dabei die herkömmlichen Notrufsäulen ergänzt werden, und im Jahre 1984 sollte die Antenne inklusive Montage rund 500 DM je Fahrzeug kosten. Das Sy- stem konnte sich aber nicht durchsetzen.

Im Jahr 2001 wurde das Projekt im Rahmen des deutschen Jugend-forscht-Wettbewerbs als europäisches Notrufsystem erstmals vorgestellt. Daraufhin wurde das Projekt verzö- gert, bis es schließlich im Jahr 2011 erneut durch die Europäische Kommission aufge- griffen wurde. Da sich der Start des Systems immer wieder verzögerte, setzen einige Automobilhersteller wie Volvo, BMW und Peugeot auf eigene, kostenpflichtige (Teil- )Lösungen. Im März 2016 wurde der Unfallmeldedienst (UMD) vorgestellt, der von der Versicherungswirtschaft, IBM und Bosch entwickelt wurde. Dieses System besteht aus einem Stecker, der an den Zigarettenanzünder angeschlossen wird, und einer Smartpho- ne-App. Bei einem Unfall erkennt der Stecker mit Hilfe von Sensoren den Aufprall und sendet diese Information an das Smartphone. Über die dort installierte App wird an- schließend eine Notrufzentrale alarmiert. Die Unfallmeldung kann bei Bedarf auch ma- nuell ausgelöst werden, etwa bei einer Panne.

In Österreich bestehen im Jahr 2012 zwei verschiedene Notrufpartner, der ÖAMTC so- wie eine Versicherungsgesellschaft. Zum Zeitpunkt sind etwa 50.000 Fahrzeuge allein beim ÖAMTC angeschlossen. Die Europäische Kommission beschloss am 8. Septem- ber 2011 die Einführung für alle Neuwagen ab 2015. In der Empfehlung der Kommissi- on werden die Mitgliedstaaten aufgefordert, dafür zu sorgen, dass die Mobilfunkbetrei- ber die eCall-Anrufe vorrangig weiterleiten und keine Gebühren erheben. Die Europäi- sche Kommission hat 2013 einen konkreten Vorschlag zur Einführung und Ausgestal- tung vorgelegt. Das Europäische Parlament hat darüber beraten und einen Vorschlag am 15. April 2014 im Plenum des Europäischen Parlaments angenommen. Am 8. Mai 2014 hat auch der Rat den mit dem Europäischen Parlament erarbeiteten Beschluss ange- nommen. Aufgrund der weiterhin bestehenden datenschutzrechtlichen Bedenken hat sich die An- nahme weiter verzögert. Der Rat hat am 10. Dezember 2014 einen Vorschlag ange- nommen] für eine Verordnung des Europäischen Parlaments und des Rates über Anfor- derungen für die Typgenehmigung zur Einführung des bordeigenen eCall-Systems in Fahrzeuge und zur Änderung der Richtlinie 2007/46/EG. Nach dieser Einigung zwi- schen Rat und Europäischem Parlament werden die Autohersteller ab dem 31. März 2018 verpflichtet, alle neuen Modelle (Typzulassung) mit dem eCall-System auszustat- ten.

Das eCall-System soll kostenfrei bei einem schweren Verkehrsunfall automatisch alarmieren. Im Hinblick auf den kontrovers diskutierten Datenschutz ist vereinbart, dass die durch eCall verwendeten Daten zu keinerlei anderen Zwecken verwendet werden dürfen und daher müssen die Ortungsdaten kontinuierlich gelöscht werden. Diesen Vor- schlag muss das Europäische Parlament noch formell annehmen.

Bei einem Unfall wird ein Notruf (eCall) an die Euronotrufnummer 112 ausgelöst, der einen Minimaldatensatz direkt an eine Notrufzentrale (PSAP - Public Safety Answering Point) absetzt, und gleichzeitig eine Sprachverbindung für den Fall aufbaut, dass ein In- sasse des Unfallautos noch sprechen kann. eCall ist automatisch und manuell auslösbar. An einem Knopf im Auto könnten auch Zeugen eines schweren Unfalls den Notruf aus- lösen.

Der Minimaldatensatz enthält unter anderem den Unfallzeitpunkt, die genauen Koordi- naten des Unfallorts, die Fahrtrichtung (wichtig auf Autobahnen und in Tunneln), Fahr- zeug-ID, Service Provider-ID und eCall-Qualifier (automatisch oder manuell ausge- löst). Optional ist die Übermittlung von Daten von Bord-Sicherheitssystemen, wie z. B. der Schwere des Unfallereignisses und der Zahl der Insassen, ob die Sicherheitsgurte angelegt waren, ob das Fahrzeug sich überschlagen hat, möglich.

Die eCall-Infrastruktur muss seit dem 1. Oktober 2017 bereitstehen. Der neue Service steht kostenfrei zur Verfügung. Alle in der EU neu zugelassenen Automodelle müssen seit April 2018 mit ecall ausgerüstet sein. Zu den Herstellern von eCall -Systemen gehö- ren u. a. LEAR Corporation, Bosch, die Continental AG, Magneti Marelli, Peiker, Harman und novero.

Die Einführung von eCall bedingt unter anderem die Ausstattung von Fahrzeugen mit einem Galileo- und GSM-Modul, einer Antenne sowie einem zusätzlichen Steuergerät, in dem die eCall-Funktion implementiert ist. Diesbezüglich wird eCall auch als Wegbe- reiter für die Verkehrstelematik bei privaten Verbrauchern gesehen, da viele der für eCall nötigen Einbauten die gleichen sind, die auch für andere telematische Anwendun- gen benötigt werden. Mit dem eCall könnte somit zugleich in jedem Fahrzeug eine technische Plattform für Zusatzdienstleistungen etabliert werden. Denn die Verordnung sieht vor, dass parallel oder aufbauend auf dem bordeigenen eCall-System umfangrei- che Zusatzdienste angeboten werden können.

Auch für Mobilfunkanbieter ergeben sich hier neue Geschäftsfelder, da die für eCall nötige SIM-Karte optional auch kostenpflichtige Telematikdienste ermöglichen könnte. Die Einwahl in ein Mobilfunknetz im europaweit geplanten eCall-System erfolgt erst unmittelbar nach dem Unfall, so dass keine Bewegungsprofile von Fahrzeugen anfallen, die ggf. auf Basis der Telekommunikations-Überwachungsverordnung gespeichert wür- den.

Über die komplette Funktionsweise und Finanzierung des Systems herrscht bisher aber noch keine Klarheit, da die Entwicklung noch nicht abgeschlossen ist. Insbesondere sind hier auch Aspekte wie das Roaming zu beachten, also dass ein Reisender mit deut- schem Fahrzeug auch beispielsweise in Portugal sofort Hilfe bekommt. Bezüglich der Finanzierung wird der Preis des eCall-Systems und möglicherweise eine Pauschale für den Betrieb im Preis für diese Option enthalten sein.

Das eCall-System steht in der Kritik, trotz angeblich guter Intentionen möglicherweise die technische Grundlage für eine EU-weite Überwachungsinfrastruktur zu schaffen. Des Weiteren besteht die Möglichkeit, dass Fahrzeughersteller die verpflichtend vor- handene Technik auch für kommerzielle Zusatzdienste nutzen werden, die möglicher- weise zusätzliche Datenschutzprobleme erzeugen (beispielsweise„Pay- As- You -Drive“ - Versicherungsverträge, Mauterfassung).

In den Zusatzdiensten liegt die eigentliche Gefahr für die informationelle Selbstbe- stimmung, denn die strengen Datenschutzbestimmungen der Verordnung gelten aus- schließlich für den eCall-Notruf in seiner Basisfunktion, die Zusatzdienste werden hier- von nicht erfasst. Insbesondere die privaten eCall-Systeme sind vor diesem Hintergrund bedenklich. Eingebettet in die modernen Bordsysteme ist bei entsprechender Gestaltung praktisch die gesamte automobile Wertschöpfungskette in der Lage, unbegrenzt Daten über das Fahrzeug und das Fahrverhalten zu gewinnen.

Der europaweite Versichererverband Insurance Europe hat offiziell Interesse daran ge- äußert, dass Versicherungsunternehmen Zugriff auf eCall-Daten ihrer Kunden erhalten, was theoretisch der Erstellung spezifischer Risikoprofile dienen könnte. Aufgrund der Intransparenz der eCall-Technologie (das Ausmaß der Datenaufzeichnung wird seitens der Hersteller nicht publik gemacht) sehen Experten die Freiheit des Autofahrers ge- fährdet. Verschiedene Stimmen fordern, dass die eCall-Funktion ausschaltbar sein soll, und Autofahrer selbst über die Datenübermittlung entscheiden können.

Mehrere Verbände, darunter der ADAC, der Verbraucherzentrale Bundesverband und der Gesamtverband der Deutschen Versicherungswirtschaft, haben sich dafür ausge- sprochen, die Autohersteller zum Einbau einer offenen Schnittstelle für den Datentrans- fer zu verpflichten. Damit könnten Autofahrer frei entscheiden, an wen sie ihre Fahr- zeugdaten übermitteln.

Beim privatwirtschaftlichen System des Unfallmeldediensts (UMD) werden ausschließ- lich Daten bei der Registrierung und bei einem Unfall oder einer Panne übermittelt. Anhand dieser Daten können Rettungskräfte zum Unfallort geschickt werden. Rück- schlüsse auf die Fahrweise oder Bewegungsprofile können - laut GDV - mit Hilfe des Unfallmeldedienstes nicht erstellt werden.[l 1] 87. Empfänger (GNSS)

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens einen Empfänger für globales Navigationssatellitensystem enthaltend, vorzugsweise einen GNSS Empfänger.

Ein Empfänger für globale Navigationssatellitensysteme (GNSS) ist ein Gerät, das aus den Satellitensignalen die eigene Position bestimmen kann. Zivile Empfänger waren bis 2011 reine GPS -Empfänger. Seither gibt es auch Multisysteme, welche auch die Signa- le anderer GNSS-Systeme (z. B. GLONASS, Galileo) auswerten können und auch in Smartphones verbaut werden.

Bis in die 1990er Jahre unterschied man nur zwischen Navigationsempfängem (Handheld bzw. fest montierte Geräte) und Präzisionsempfängem (die ersten tragbaren Navis baute Magellan um 1990, gefolgt von Garmins GPS I und II 1991-95). Heute klassifiziert man die Geräte hingegen nach ihrer praktischer Anforderung. In den Emp- fängern übernehmen integrierte Schaltkreise die Signal Verarbeitung. Beispiele sind der SiRF Star III oder MTK II/ MTK3329 / EB230 von MediaTek.

Für den Alltagseinsatz zur Positionsbestimmung genügen kleine Mobilgeräte. Ein GNSS-Empfängermodul mit Antenne und Stromversorgung kann weniger als 100 g wiegen. Sie können unterschieden werden in:

Mäuse (GPS-Maus): Sogenannte Mäuse sind meist flach gebaute mobile Einheiten aus Antenne und Empfänger, aber ohne grafische Benutzeroberfläche. Sie liefern fortlau- fend Positionsdaten und übertragen sie beispielsweise über eine serielle RS-232- Schnittstelle oder eine Bluetooth-Verbindung an ein externes Gerät zur weiteren Verar- beitung.

-Logger: Logger bestimmen fortlaufend Positionsdaten, speichern sie aber intern. Die Track Logs können über eine Schnittstelle ausgelesen werden. -Navigationsgeräte: Diese Empfänger verfügen über ein Display. Auf ihm stellt das Ge- rät Positionsdaten dar.

-Navigationssysteme: Ein Navigationssystem zeigt den eigenen Standort und den zu- rückgelegten Weg auf einer elektronischen Karte. Sogenanntes Routing berechnet den Weg zu einem Zielpunkt.

-Mobilfunkgeräte: Mobil funkgeräte besitzen häufig einen GGN SS -Empfänger. Diese Geräte können auch durch per Mobilfunk empfangene Zusatzinformationen (z. B. A- GPS) schnell und genau arbeiten.

-Präzisionsgeräte: Industrieempfänger sind mit externen Antennen ausgestattet. Die Genauigkeit kann durch Zusatzinformationen von SBAS-Systemen deutlich gesteigert werden. Lokal verfügbare, oft kommerzielle DGPS-Korrektursignale, beispielsweise SAPOS oder ein eigener Referenzempfänger, verbessern die Ortsbestimmung sehr. Ei- ne Nachberechnung der Messwerte kann eine relative Genauigkeit von unter 1 cm lie- fern.

-Militärische Geräte (PGPS): Neben dem freien GPS-Signal (LI) übertragen die GPS- Satelliten ein weiteres Signal (L2). Nur die US -Streitkräfte und befreundete Staaten er- halten einen Schlüssel, um das L2-Signal zu dekodieren.

Bekannte Hersteller von GPS-Geräten sind Blaupunkt, Garmin, Becker, Leica Geosy- stems, Lowrance, Magellan Navigation, Mio, Navigon, Silva, TomTom und Trimble. Die Empfänger-Bausteine stammen u. a. von Herstellern wie Analog Devices, Conex- ant, Maxim Integrated Products, SiRF und u-blox.

GNSS -Empfänger werden oft mit elektronischen Karten ergänzt. Bekannte Anbieter solcher Karten sind Tele Atlas und HERE. Die Landesvermessungsämter in Deutsch- land und die Landestopografie der Schweiz bieten topographische Karten an. Seekarten werden hauptsächlich von Navionics, C-Map und Garmin angeboten.

Für Garmin-Geräte gibt es kostenlose und frei verfügbare OpenStreetMap-Karten in mehreren Ausführungen, auch für Radfahrer, Wanderer, Reiter und Skifahrer. Die Emp- fängerdaten werden oft im sogenannten NMEA-Format ausgegeben. Wenn der Emp- fanger die Daten weiter verarbeitet, erstellt er aus den Rohdaten ggf. einen sogenannten Track. Es ist eine Abfolge von Trackpunkten, die in bestimmten Abständen automatisch aufgezeichnet werden. Fast alle proprietären Datenformate lassen sich in das offene GPS Exchange Format (GPX) konvertieren.

88. Global System for Mobile Communications (GSM)

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) wenigstens ein mobiles Telefonsystem, vorzugsweise ein Funmodul, enthaltend, vorzugsweise das Global System for Mobile Communications und/oder GSM- Funkmodul

Das Global System for Mobile Communications (früher Groupe Special Mobile, GSM) ist ein 1990 eingeführter Mobilfunkstandard für volldigitale Mobilfunknetze, der haupt- sächlich für Telefonie, aber auch für leitungsvermittelte und paketvermittelte Daten- übertragung sowie Kurzmitteilungen (Short Messages) genutzt wird. Es ist der erste Standard der sogenannten zweiten Generation („2G“) als Nachfolger der analogen Sy- steme der ersten Generation (in Deutschland: A-Netz, B-Netz und C-Netz) und ist der weltweit am meisten verbreitete Mobilfunk-Standard.

GSM wurde mit dem Ziel geschaffen, ein mobiles Telefonsystem anzubieten, das Teil- nehmern eine europaweite Mobilität erlaubte und mit ISDN oder herkömmlichen ana- logen Telefonnetzen kompatible Sprachdienste anbot.

In Deutschland ist GSM die technische Grundlage der D- und E-Netze. Hier wurde GSM 1991 eingeführt, was zur raschen Verbreitung von Mobiltelefonen in den 1990er- Jahren führte. Der Standard wird heute in 670 GSM-Mobilfunknetzen in rund 200 Län- dern und Gebieten der Welt als Mobilfunkstandard genutzt; dies entspricht einem An- teil von etwa 78 Prozent aller Mobilfunkkunden. Es existieren später hinzugekommene Erweiterungen des Standards wie HSCSD, GPRS und EDGE zur schnelleren Daten- Übertragung. Im März 2006 nutzten weltweit 1,7 Milliarden Menschen GSM und täglich kommen ei- ne Million neue Kunden dazu - hauptsächlich aus den Wachstumsmärkten Afrika, Indi- en, Lateinamerika und Asien. Rechnet man alle Mobilfunkstandards zusammen, so sind weltweit ca. 2 Milliarden Menschen mobiltelefonisch erreichbar. Das gaben die GSM Association und die GSA im Oktober 2005 bekannt. Im Jahr 2003 wurden (nach Anga- ben der Deutschen Bank) 277 Milliarden US-Dollar mit GSM-Technik umgesetzt.

Ende der 1950er Jahre nahmen die ersten analogen Mobilfunknetze in Europa ihren Be- trieb auf; in Deutschland war dies das A-Netz. Ihre Bedienung war jedoch kompliziert, und sie verfügten nur über Kapazitäten für wenige tausend Teilnehmer. Zudem gab es innerhalb Europas nebeneinander mehrere verschiedene Systeme, die zwar teilweise auf dem gleichen Standard beruhten, sich aber in gewissen Details unterschieden. Bei der nachfolgenden Generation der digitalen Netze sollte eine ähnliche Situation vermieden werden.

Im Unterschied zum Festnetz gibt es bei einem Mobilfunknetz diverse zusätzliche An- forderungen: Teilnehmerauthentifizierung, Kanalzugriffsverfahren, Mobilitätsverwal- tung (HLR, VLR, Location Update, Handover, Roaming)

Die Teilnehmer sind mobil und können somit von einer Funkzelle in eine andere wech- seln. Geschieht dies während eines Gesprächs oder einer Datenverbindung, dann muss die Gesprächsverbindung von einer Basisstation zur nächsten übergeben werden (Handover), damit das Mobiltelefon seine Funkverbindung immer zu der bestgeeigne- ten Basisstation bekommt. In Ausnahmefallen kann das Gespräch auch über eine be- nachbarte Basisstation geführt werden, um Überlastungen zu vermeiden.

Effiziente Ressourcenausnutzung: Da auf der Funkschnittstelle eine geringere Daten- übertragungsrate als im Festnetz zur Verfügung steht, müssen die Nutzdaten stärker komprimiert werden. Um den Anteil der Datenübertragungsrate, der für Signalisie- rungsvorgänge verwendet werden muss, klein zu halten, wurden die Signalisierungs- nachrichten bitgenau spezifiziert, um sie so kurz wie möglich zu halten. Mobiltelefone verfügen nur über eine begrenzte Akkukapazität, die sparsam genutzt werden sollte. Generell gilt, dass Senden mehr Energie kostet als Empfangen. Deshalb sollte im Standby-Betrieb die Menge der gesendeten Daten und der Statusmeldungen möglichst gering gehalten werden.

Nutzung von Fremdnetzen (Roaming), Mobilfunk-Sendemast, Standardisierung: Die Standardisierung von GSM wurde bei CEPT begonnen, von ETSI (Europäisches Insti- tut für Telekommunikationsnormen) weitergeführt und später an 3GPP (3rd Generation Partnership Project) übergeben. Dort wird GSM unter dem Begriff GERAN (GSM EDGE Radio Access Network) weiter standardisiert. 3GPP ist somit für UMTS und GERAN verantwortlich.

Reichweite: Die mit GSM erzielbaren Reichweiten schwanken stark, je nach Gelände- profil und Bebauung. Im Freien sind bei Sichtkontakt teilweise bis zu 35 km erreichbar. Bei größeren Entfernungen verhindert die Signallaufzeit der Funksignale eine Kommu- nikation zwischen Basis- und Mobilstation. Es ist allerdings mit Hilfe spezieller Tricks möglich, die Zellengröße zu vergrößern, teilweise auf Kosten der Kapazität. Anwen- dung findet dies in Küstenregionen. In Städten beträgt die Reichweite aufgrund von Dämpfungen durch Gebäude und durch die niedrigere Antennenhöhe oft nur wenige hundert Meter, dort stehen die Basisstationen allerdings aus Kapazitätsgründen auch dichter beieinander.

Grundsätzlich gilt jedoch, dass mit GSM 900 aufgrund der geringeren Funkfelddämp- fung und der größeren Ausgangsleistung der Endgeräte größere Reichweiten erzielbar sind als mit DCS 1800.

Entsprechend der Reichweite wird die Zellengröße festgelegt. Dabei wird auch die prognostizierte Nutzung berücksichtigt, um Überlastungen zu vermeiden. Die digitalen Daten werden mit einer Mischung aus Frequenz- und Zeitmultiplexing übertragen, wobei Sende- und Empfangsrichtung durch Frequenzmultiplexing getrennt werden und die Daten durch Zeitmultiplexing. Das GSM-Frequenzband wird in mehrere Kanäle un- terteilt, die einen Abstand von 200 kHz haben. Bei GSM 900 sind im Bereich von 890- 915 MHz 124 Kanäle für die Aufwärtsrichtung (Uplink) zur Basisstation und im Be- reich von 935-960 MHz 124 Kanäle für die Abwärtsrichtung (Downlink) vorgesehen.

Die TDMA-Rahmendauer beträgt exakt 120/26 ms (ca. 4,615 ms) und entspricht der Dauer von exakt 1250 Symbolen. Jeder der acht Zeitschlitze pro Rahmen dauert somit ca. 0,577 ms, entsprechend der Dauer von 156,25 Symbolen. In diesen Zeitschlitzen können Bursts verschiedener Typen gesendet und empfangen werden. Die Dauer eines normalen Bursts beträgt ca. 0,546 ms, in denen 148 Symbole übertragen werden.

Da die Mobilstation jeweils nur in einem Zeitschlitz des Rahmens sendet, ergibt sich eine Pulsrate von 217 Hz.

Das Modulationsverfahren ist Gaussian Minimum Shift Keying (GMSK, dt.: Gauß'sche Minimalphasenlagenmodulation), eine digitale Phasenmodulation bei der die Amplitu- de konstant bleibt. Mit EDGE wurde dann 8-PSK eingeführt. Während bei GMSK pro Symbol nur 1 bit übertragen wird, sind dies bei 8-PSK 3 bit, jedoch wird für die Funk- verbindung ein besseres Signal-Rauschleistungsverhältnis benötigt.

Da bei einer Entfernung von mehreren Kilometern das Funksignal durch die beschränk- te Ausbreitungsgeschwindigkeit (die sogenannte Gruppengeschwindigkeit) soweit ver- zögert werden kann, dass der Burst des Mobiltelefons nicht mehr innerhalb des vorge- gebenen Zeitschlitzes bei der Basisstation ankommt, ermittelt diese die Signallaufzeit und fordert das Mobiltelefon auf, den Burst etwas früher auszusenden. Dazu teilt sie dem mobilen Gerät den Parameter Timing Advance (TA) mit, der den Sendevorlauf in 3,7-ps-Schritten vorgibt. Dies entspricht jeweils der Zeitdauer eines Bit, wobei die Bit- rate 270,833 kbits/s beträgt (siehe unten). Der Timing Advance hat einen Wertebereich von 0 bis 63. Die Dauer eines Bits entspricht bei gegebener Gruppengeschwindigkeit einer Wegstrecke von ca. 1,106 km, und da für die Laufzeit Hin- und Rückrichtung zu- sammen betrachtet werden müssen, entspricht eine Änderung des Timing Advances um eins einer Entfemungsänderung von etwas mehr als 553 m. Somit ergibt sich eine ma- ximale Reichweite von ca. 35,4 km, die jedoch mit technischen Tricks erweitert werden kann.

Nach dem Empfangsburst schaltet das Mobiltelefon auf die um 45 MHz versetzte Sen- defrequenz, und sendet dort den Burst des Rückkanals an die Basisstation. Da Down- link und Uplink um drei Zeitschlitze versetzt auftreten, genügt eine Antenne für beide Richtungen. Zur Erhöhung der Störfestigkeit kann auch das Frequenzpaar periodisch gewechselt werden (ffequency hopping), so entsteht eine Frequenzsprungrate von 217 Sprüngen pro Sekunde.

Bei einer Bruttodatenübertragungsrate von ca. 270,833 kbit/s pro Kanal (156,25 Bits in jedem Burst zu 15/26 ms) bleiben je Zeitschlitz noch 33,85 kbit/s brutto übrig. Von die- ser Datenrate sind 9,2 kbit/s für die Synchronisation des Rahmenaufbaus reserviert, so dass 24,7 kbit/s netto für den Nutzkanal übrig bleiben. Durch die Übertragung per Funk liegen in diesem Bitstrom noch viele Bitfehler vor.

Die Datenrate pro Zeitschlitz von 24,7 kbit/s wird in 22,8 kbit/s für die kodierten und verschlüsselten Nutzdaten des Verkehrskanals (Traffic Channel) und 1,9 kbit/s für die teilnehmerspezifischen Steuerkanäle (Control Channel) aufgeteilt. Die Kanalkodierung beinhaltet eine Reihe von Fehlerschutzmechanismen, so dass für die eigentlichen Nutz- daten noch 13 kbit/s übrig bleiben (im Fall von Sprachdaten). Eine später eingeführte alternative Kanalkodierung erlaubt die Verringerung des Fehlerschutzes zugunsten der Anwendungsdaten, da bei Datenübertragungsprotokollen im Gegensatz zur Sprachüber- tragung bei Bitfehlem eine Neuanforderung des Datenblocks möglich ist.

Die Sendeleistung der Mobilstation bei GSM 900 beträgt max. 2 Watt und 1 Watt bei GSM 1800. Die Sendeleistungen der Basisstationen für GSM 900/1800 betragen 20- 50/10-20 Watt. Die Sendeleistungen von Mobil- und Basisstationen werden nach Ver- bindungsaufbau je auf das notwendige Mindestmaß reduziert. Die Basisstation sendet, je nach Bedarf, in den einzelnen Zeitschlitzen eines Rahmens mit unterschiedlicher Lei- stung. Sie sendet nur in aktiven Zeitschlitzen. [3] Die Leistungsregelung erfolgt im Ab- stand von Sekunden. Daneben kann das Handy, wenn nicht gesprochen wird, die Ab- strahlungen unterbrechen. Der technische Grund für beide Maßnahmen ist, den Strom- verbrauch zu senken und Funkstörungen in Nachbarzellen gleicher Frequenz zu redu- zieren.

Mobiltelefon bzw. Mobile Station (MS) : Die MS besteht aus einer Antenne, an die eine Sende- und Empfangseinheit angeschlossen ist, Stromversorgung, Lautsprecher und Mikrofon (oder externe Anschlüsse) und einer Möglichkeit, einen anderen Teilnehmer auszuwählen (typischerweise Tastatur oder Spracheingabe). Üblicherweise enthält die Mobile Station zusätzlich ein Display, um die Telefonnummer des Anrufers sowie Kurzmitteilungen (SMS) anzuzeigen. Ein weiterer wesentlicher Bestandteil der MS ist die SIM-Karte.

Mobilfunksendesystem bzw. Base Station Subsystem (BSS): Das BSS besteht aus min- destens einer Basisstation (BTS, Base Transceiver Station), üblicherweise jedoch meh- reren (meist einige 10 bis einige 100). Jede Basisstation bedient über die an sie ange- schlossenen Antennen eine oder mehrere (häufig drei) Funkzellen. Die Basisstationen sind mit einer zentralen Steuerungseinheit (BSC, Base Station Controller) verbunden, die die Funkverbindungen überwacht und ggf. Zellwechsel (Handover) einleitet. An je- dem BSC ist eine Umwandlungseinheit (TRAU, Transcoder and Rate Adaptation Unit) angeschlossen. Diese wird benötigt, da bei Telefongesprächen innerhalb des Mobil- funknetzes ein komprimierender Audiocodec verwendet wird. Die TRAU konvertiert zwischen GSM-komprimierten Sprachkanälen und unkomprimierten ISDN- Audiokanälen mit 64kbit/s.

Vermittlungsteilsystem bzw. Network Switching Subsystem (NSS) oder Core Network Subsystem (CSS): Das NSS besteht aus dem MSC (Mobile-services Switching Centre), das die eigentliche Vermittlungsstelle und die Schnittstelle zwischen Funknetz und Te- lefonnetz darstellt. Ebenfalls zum NSS gehört das VLR (Visitor Location Register), das Informationen über alle mobilen Teilnehmer speichert, die sich innerhalb des Funknet- zes aufhalten. Das HLR (Home Location Register) speichert dagegen Informationen über alle Teilnehmer, die Kunden des Funknetzeigentümers sind. Für die Authentifizie- rung ist das AUC (Authentication Center) zuständig, das (optionale) EIR (Equipment Identity Register) speichert Informationen über die Seriennummem der verwendeten Mobile Stations.

GPRS Core Network: Für den paketvermittelten Teil GPRS stehen der SGSN (Serving GPRS Support Node) und GGSN (Gateway GPRS Support Node) zur Verfügung. Operation and Maintenance Center (OMC) bzw. Network Management Center (NMC) (nicht eingezeichnet)Das OMC überwacht das Mobilfunknetz und kontrolliert die MSC, BSC und BTS.

In einem GSM-Netz werden folgende Nummern zur Adressierung der Teilnehmer ver- wendet: Die MSISDN (Mobile Subscriber ISDN Number) ist die eigentliche Telefon- nummer, unter der ein Teilnehmer weltweit zu erreichen ist. Die IMSI (International Mobile Subscriber Identity) ist dementsprechend die interne Teilnehmerkennung, die auf der SIM gespeichert wird und zur Identifizierung eines Teilnehmers innerhalb eines Funknetzes verwendet wird. Aus Datenschutzgründen wird die IMSI nur bei der initia- len Authentifizierung der mobilen Station über das Funknetz gesendet, in weiteren Au- thentifizierungen wird stattdessen eine temporär gültige TMSI (Temporary Mobile Sub- scriber Identity) verwendet. Für das Roaming, also das Routing des Telefonats inner- halb des Mobilfunknetzes, wird die MSRN (Mobile Station Roaming Number) verwen- det.

Einige wichtige Funktionen innerhalb von Mobilfunknetzen: Inter-Cell-Handover: Eine der wichtigsten Grundfunktionen in zellularen Mobilfunknetzen ist der vom Netz ange- stoßene Zellwechsel während eines laufenden Gesprächs. Dieser kann aus verschiede- nen Gründen notwendig werden. Ausschlaggebend ist u. a. die Qualität der Funkver- bindung, aber auch die Verkehrslast der Zelle. Es kann zum Beispiel ein Gespräch an eine weiter entfernte Zelle übergeben werden, um eine Überlastung zu vermeiden. In- tra-Cell-Handover: Flier wird zum Beispiel aufgrund der Kanalqualität der MS ein neu- er Kanal innerhalb einer Zelle zugewiesen. Mobility Management: Mehrere Prozeduren im GSM-Netz behandeln die Bewegung (Mobility) der Teilnehmer im Netz. Damit ein mobiler Teilnehmer, der sich irgendwo im Netzgebiet befindet, angerufen oder ihm eine Kurznachricht zugestellt werden kann, muss ständig die Voraussetzung dafür bestehen, dass der Teilnehmer eine Suchanfrage (genannt Paging) empfangen kann. Hierzu muss sein aktueller Aufenthaltsort in gewis- ser Granularität ständig nachgeführt werden.

Zur Verringerung des Aufwands im Kemnetz und zur Verlängerung der Akku-Laufzeit wird zentral nur die Location Area erfasst, in der sich ein eingebuchtes Mobiltelefon be- findet. Wo es sich innerhalb dieses Gebietes befindet, ist nicht bekannt. Um Energie und Übertragungskapazität zu sparen, meldet sich das Mobiltelefon im Standby-Betrieb (idle-mode) in vom Netz vorgegebenen Abständen (zwischen 6 Minuten und 25,5 Stunden) oder beim Wechsel der Location Area beim Netz. Sobald das Netz mit dem Mobiltelefon eine Verbindung aufbauen möchte, wird dieses über alle Basisstationen der Location Area gerufen und bei Meldung die Verbindung über die Basisstation, an der das Endgerät sich meldet, aufgebaut.

Dem Mobiltelefon dagegen ist genau bekannt, in welcher Funkzelle es sich befindet. Im Standby-Betrieb scannt es die Nachbarzellen, deren Trägerfrequenzen es von der Basis- station auf speziellen Informationskanälen mitgeteilt bekommt. Wird das Signal einer der Nachbarzellen besser als das der aktuellen Zelle, dann wechselt das Mobiltelefon dorthin. Bemerkt es dabei eine Änderung der Location Area, dann muss es dem Netz seinen neuen Aufenthaltsort mitteilen.

Für das Mobilitätsmanagement sind das VLR (Visitor Location Register) und das HLR (Home Location Register) von sehr großer Bedeutung. Die beiden sind eigentlich als Datenbanken zu verstehen. Jede MS ist genau einmal in einem HLR registriert. Dort sind alle Teilnehmerdaten gespeichert. Im HLR ist stets das VLR eingetragen, in dessen Bereich sich eine MS zuletzt gemeldet hat. Im VLR sind jeweils alle sich im Einzugs- gebiet eines MSC befindlichen MS eingetragen. Roaming: Da viele Mobilfunkbetreiber aus verschiedenen Ländern Roamingabkommen getroffen haben, ist es möglich, das Mobiltelefon auch in anderen Ländern zu nutzen und weiterhin unter der eigenen Nummer erreichbar zu sein und Gespräche zu führen. Sicherheitsfunktionen, Authentifizierung: Jedem Teilnehmer wird bei der Aufnahme in das Netz eines Mobilfunkbetreibers ein 128 Bit langer Subscriber Authentication Key Ki zugeteilt. Der Schlüssel wird auf Teilnehmerseite in der SIM-Karte, netzseitig ent- weder im HLR oder im AuC gespeichert. Zur Authentifizierung wird der MS vom Netz eine 128 Bit lange Zufallszahl RAND geschickt. Aus dieser Zufallszahl und Ki wird mit dem A3 -Algorithmus der Authentifizierungsschlüssel SRES' (Signed Response, 32 Bit) berechnet. Diese Berechnung findet in der SIM-Karte statt. Der Authentifizierungs- schlüssel SRES wird vom Netz im AuC und von der MS getrennt berechnet und das Ergebnis vom VLR verglichen. Stimmen SRES und SRES' überein, ist die MS authenti- fiziert. Der A3 -Algorithmus ist elementarer Bestandteil der Sicherheit im GSM-Netz. Er kann von jedem Netzbetreiber selbst ausgewählt werden, Details der jeweiligen Im- plementierung werden geheim gehalten.

Nutzdatenverschlüsselung: Zur Verschlüsselung wird aus der zur Authentifizierung be- nötigten Zufallszahl RAND und dem Benutzerschlüssel Ki mit dem Algorithmus A8 ein 64 Bit langer Codeschlüssel (englisch: Ciphering Key) Kc bestimmt. Dieser Code- schlüssel wird vom Algorithmus A5 zur symmetrischen Verschlüsselung der übertrage- nen Daten verwendet.

Schon angesichts der geringen Schlüssellänge kann davon ausgegangen werden, dass die Verschlüsselung keine nennenswerte Sicherheit gegen ernsthafte Angriffe bietet. Außerdem wurde bereits durch mehrere Angriffe 2009 und 2010 auf den verwendeten Algorithmus A5/1 gezeigt, dass dieser prinzipiell unsicher ist. Allerdings verhindert die Verschlüsselung ein einfaches Abhören, wie es beim analogen Polizeifunk möglich ist. Die Verschlüsselung mit dem unsicheren A5/1 -Algorithmus ist in Deutschland norma- lerweise eingeschaltet. In Ländern wie z. B. Indien darf das Handynetz nicht verschlüs- seit werden. Prinzipiell sieht der GSM-Standard vor, dass Mobiltelefone bei unver- schlüsselten Verbindungen eine Warnung anzeigen.

Anonymisierung: Um eine gewisse Anonymität zu gewährleisten, wird die eindeutige Teilnehmerkennung IMSI, über die ein Teilnehmer weltweit eindeutig zu identifizieren ist, auf der Luftschnittstelle verborgen. Stattdessen wird vom VLR eine temporäre TMSI generiert, die bei jedem Location Update neu vergeben wird und nur verschlüs- selt übertragen wird. Siehe auch: IMSI-Catcher.

Der Benutzer muss sich gegenüber der SIM-Karte (und damit gegenüber dem Mobil- fünknetz) als berechtigter Nutzer authentisieren. Dies geschieht mittels einer PIN. Es ist auf der SIM-Karte festgelegt, ob die PIN-Abfrage deaktiviert werden kann. Wurde die PIN dreimal in Folge falsch eingegeben, wird die SIM-Karte automatisch gesperrt. Um sie wieder zu entsperren, ist der PUK (Personal Unblocking Key) erforderlich. Der PUK kann zehnmal in Folge falsch eingegeben werden bevor die SIM-Karte endgültig gesperrt wird. Das Mobilfunknetz muss sich nicht gegenüber dem Benutzer authentisie- ren.

Festnetzseitig basiert der GSM-Standard auf dem ISDN-Standard und stellt deshalb ähnliche vermittlungstechnische Leistungsmerkmale bereit. Mit der Möglichkeit, Kurz- nachrichten (SMS, kurz für Short Message Service) zu senden und zu empfangen, wur- de ein neuer Dienst geschaffen, der begeistert angenommen worden ist und mittlerweile eine wichtige Einnahmequelle für die Netzbetreiber geworden ist.

Für die Sprachübertragung bei GSM wurden im Laufe der Jahre mehrere Codecs stan- dardisiert. Die üblichen Sprachcodecs, welche typischerweise mit einer Datenrate von weniger als 20 kbit/s auskommen, führen eine der menschlichen Sprache angepasste Merkmalsextraktion durch, wodurch sie nur für die Übertragung von Sprache brauchbar sind. Musik oder andere Geräusche können sie daher nur mit geringerer Qualität über- tragen. Im Folgenden werden die im GSM-Netz verwendeten Sprachcodecs kurz zusammenge- fasst: Der erste GSM-Sprachcodec war der Full -Rate-Codec (FR). Für ihn steht nur eine Netto-Datenrate von 13 kbit/s zur Verfügung (im Unterschied zu G.71 1 64 kbit/s bei ISDN). Die Audiosignale müssen deshalb stark komprimiert werden, aber trotzdem eine akzeptable Sprachqualität erreichen. Beim FR -Codec wird eine Mischung aus Langzeit- und Kurzzeit-Prädiktion verwendet, die eine effektive Komprimierung ermöglicht (RPE/LTP-LPC Sprachkompression: Linear Predictive Coding, Long Term Prediction, Regular Pulse Excitation).

Full Rate Codec: Technisch werden jeweils 20 ms Sprache gesampelt und gepuffert, anschließend dem Sprachcodec unterworfen (13 kbit/s). Zur Vorwärtsfehlerkorrektur (Forward Error Correction, FEC) werden die 260 Bits eines solchen Blocks in drei Klassen eingeteilt, dementsprechend, wie stark sich ein Bitfehler auf das Sprachsignal auswirken würde. 50 Bits des Blocks werden in Klasse Ia eingeteilt. Sie sind am stärk- sten zu schützen und erhalten eine CRC-Prüfsumme von 3 Bits für Fehlererkennung und Fehlerverdeckung (error concealment). Zusammen mit 132 Bits der Klasse Ib, die etwas weniger zu schützen sind, werden sie einem Faltungscode unterworfen, der aus den 185 Eingangsbits 378 Ausgangsbits generiert. Die restlichen 78 Bits werden unge- schützt übertragen. So werden aus 260 Bits Nutzdaten 456 Bits fehlergeschützte Daten, wodurch die erforderliche Bitrate auf 22,8 kbit/s steigt.

Interleaving: Die 456 Bits werden durch Interleaving auf acht Flalbbursts zu je 57 Bits aufgeteilt. Nach dem Deinterleaving im Empfänger wirken sich kurzzeitige Störungen (zum Beispiel ein Burst lang) durch die Fehlerspreizung nur noch gering aus. Durch die Kombination der unterschiedlichen Fehlerschutzverfahren im GSM, wird, obwohl der Funkkanal äußerst fehleranfällig ist, oft eine gute Sprachqualität erreicht.

Half Rate Codec: Mit der Einführung des Half-Rate-Codecs wurde es möglich, auf ei- nem Zeitschlitz der Luftschnittstelle nicht nur ein, sondern zwei Gespräche gleichzeitig abzuwickeln. Wie der Name sagt, steht für HR nur die halbe Datenrate zur Verfügung wie für den FR-Codec. Um trotzdem eine brauchbare Sprachqualität zu erreichen, wird anstelle der im FR-Codec verwendeten skalaren Quantisierung eine Vektorquantisie- rung verwendet. Dadurch ist für die Kodierung ungefähr die drei- bis vierfache Rechen- leistung erforderlich wie beim FR-Codec. Weil die Sprachqualität trotzdem eher mäßig ist, wird HR von den Mobilfunknetzbetreibern nur dann eingesetzt, wenn eine Funkzel- le überlastet ist.

Enhanced Full Rate Codec (EFR): EFR arbeitet mit einer ähnlichen Datenrate wie der Full Rate Codec, nämlich 12,2 kbit/s. Durch einen leistungsfähigeren Algorithmus (CELP) wurde, gegenüber dem Full-Rate-Codec, eine bessere Sprachqualität erreicht, welche bei einem guten Funkkanal annähernd dem Niveau von ISDN- Telefongesprächen (G.711a) entspricht.

Adaptive Multirate Codec (AMR): Bei AMR handelt es sich um einen parametrierbaren Codec mit unterschiedlichen Datenraten zwischen 4,75 und 12,2 kbit/s. In der 12,2- kbit/s-Einstellung entspricht er vom Algorithmus wie auch in der Audioqualität her weitgehend dem GSM-EFR-Codec. Je geringer die Datenrate der Sprachdaten ist, umso mehr Bits stehen für die Kanalkodierung und damit zur Fehlerkorrektur zur Verfügung. Somit wird der 4,75-kbit/s-Codec als der robusteste bezeichnet, weil trotz hoher Bitfeh- lerhäufigkeit bei der Funkübertragung noch ein verständliches Gespräch möglich ist. Während eines Gespräches misst das Mobilfunknetz die Bitfehlerhäufigkeit und wählt den dafür geeignetsten Codec aus einer Liste, dem Active Codec Set (ACS) aus. Die verwendete Coderate wird somit fortlaufend an die Kanalqualität adaptiert.

Adaptive Multirate Codec bzw. wide Band (AMR- WB): Bei diesem Codec handelt es sich um eine Erweiterung und Optimierung des schon verfügbaren AMR-Codecsets. Wie das„WB“ (wide band) schon vermuten lässt, wird der übertragbare Frequenzbe- reich von derzeit ca. 3,4 kHz auf etwa 6,4 kHz beziehungsweise 7 kHz angehoben, ohne mehr Funkressourcen zu belegen. Die Entwicklung dieses Codecs ist seit einiger Zeit abgeschlossen, und er wurde von der ITU (G.722.2) und 3GPP (TS 26.171) standardi- siert. Der Codec soll durch die größere Bandbreite Sprach- und Umgebungsgeräusche besser gemeinsam übertragen können, was in lauter Umgebung eine bessere Sprachqua- lität ermöglicht. Ericsson hat im T-Mobile-UMTS-Netz in Deutschland im Sommer 2006 mit ausgewählten Kunden in den Städten Köln und Hamburg einen AMR-WB- Betriebstest durchgeführt. Ende 2008 wurden alle Ericsson -BSC des Telekom-Netzes für AMR- WB vorbereitet. Seit Ende 2011 können alle Endkunden der Telekom AMR- WB nutzen. AMR- WB wird in Deutschland als HD-Voice vermarktet.

Datenübertragung: Wird ein GSM-Kanal für Datenübertragung genutzt, erhält man nach den Dekodierschritten eine nutzbare Datenrate von 9,6 kbit/s. Diese Übertra- gungsart wird Circuit Switched Data (CSD) genannt. Eine fortschrittliche Kanalkodie- rung ermöglicht auch 14,4 kbit/s, bewirkt bei schlechten Funkverhältnissen aber viele Blockfehler, so dass die„Downloadrate“ tatsächlich niedriger ausfallen kann als mit er- höhter Sicherung auf dem Funkweg. Deshalb wird in Abhängigkeit von der Bitfehler- häufigkeit zwischen 9,6 und 14,4 kbit/s netzgesteuert umgeschaltet (=Automatic Link Adaptation, ALA).

Beides ist jedoch für viele Internet- und Multimediaanwendungen zu wenig, so dass Erweiterungen unter dem Namen HSCSD und GPRS geschaffen wurden, die eine höhe- re Datenrate ermöglichen, indem mehr Bursts pro Zeiteinheit für die Übertragung ge- nutzt werden können. HSCSD nutzt eine feste Zuordnung mehrerer Kanal schlitze, GPRS nutzt Funkschlitze dynamisch für die aufgeschalteten logischen Verbindungen (besser für den Internetzugang). Eine Weiterentwicklung von GPRS ist E-GPRS. Dies ist die Nutzung von EDGE für Paketdatenübertragung.

Ortung: Die Position eines Mobiltelefons ist für den Mobilfunkbetreiber durch die per- manente Anmeldung am Netz in gewissen Genauigkeitsgrenzen bekannt. Im Standby- Betrieb ist sie zumindest durch die Zuordnung zur aktuell verwendeten Location Area gegeben. Diese Information wird bei Bewegung der Mobilstation regelmäßig aktuali- siert. GSM-Ortung stellt je nach Anwendungsfall eine Alternative zum GPS dar und wird für verschiedene Dienste genutzt, unter anderem für Location Based Services, Routenplaner, Flottenmanagement für Transportunternehmen oder eine Hilfe zum Wie- derauffmden eines Mobiltelefons. Die Verwendung für Rettungsdienste ermöglicht das schnelle Auffinden von Unfallopfern. Ebenso wird GSM-Ortung in der Strafverfolgung als Hilfsmittel der Polizei eingesetzt.

GSM wurde ursprünglich hauptsächlich für Telefongespräche, Faxe und Datensendun- gen mit konstanter Datenrate konzipiert. Burstartige Datensendungen mit stark schwan- kender Datenrate, wie es beim Internet üblich ist, wurden nicht eingeplant. Mit dem Er- folg des Internets begann daher die sogenannte„Evolution von GSM“, bei der das GSM-Netz komplett abwärtskompatibel mit Möglichkeiten zur paketorientierten Da- tenübertragung erweitert wurde. Außerdem sollten nur minimale Kosten durch den Austausch von vielfach verwendeten Komponenten entstehen.

CSD: Geschwindigkeiten bis zu 14,4 kBit/s werden mit Circuit Switched Data erreicht. HSCSD: Durch die Kopplung von mehreren Kanälen erreicht HSCSD insgesamt eine höhere Datenrate, maximal 115,2 kbit/s. Um HSCSD nutzen zu können, braucht man ein kompatibles Mobiltelefon, auf Seiten des Netzbetreibers sind Hardware- und Soft- wareänderungen bei Komponenten innerhalb der Basisstationen und des Kemnetzes er- forderlich. In Deutschland unterstützen nur Vodafone und E-Plus HSCSD.

GPRS: GPRS erlaubte erstmals eine paketvermittelte Datenübertragung. Der tatsächli- che Datendurchsatz hängt unter anderem von der Netzlast ab und liegt bei maximal 171,2 kbit/s. Bei geringer Last kann ein Nutzer mehrere Zeitschlitze parallel verwen- den, während bei hoher Netzlast jeder GPRS-Zeitschlitz auch von mehreren Benutzern verwendet werden kann. GPRS erfordert beim Netzbetreiber allerdings innerhalb des Kemnetzes zusätzliche Komponenten (den GPRS Packet Core).

EDGE: Mit EDGE wurde durch eine neue Modulation (8PSK) eine Erhöhung der Da- tenrate ermöglicht. Sie beträgt maximal 384 kbit/s. Mit EDGE werden GPRS zu E- GPRS (Enhanced GPRS) und HSCSD zu ECSD (Enhanced Circuit Switched Data) er- weitert. Streaming: Streaming Services erfordern eine minimale garantierte Datenrate. Dies ist in GPRS ursprünglich nicht vorgesehen. Inzwischen (d. h. ab 3GPP release 99) wurden durch Einführung entsprechender Quality-of-Service-Parameter und einige andere Ei- genschaften die Voraussetzungen dafür geschaffen, echtes Streaming über GPRS zu ermöglichen.

Generic Access: Seit Mitte 2004 wird in den Standardisierungsgremien an einer Metho- de gearbeitet, die es Mobilgeräten erlauben soll, GSM-Dienste statt über die GSM- Luftschnittstelle auch über jede Art von anderen (IP-)Übertragungssystemen zu nutzen. Dafür sollen die Sendestationen von WLAN, Bluetooth etc. über sogenannte Generic Access Controller an das GSM core network angeschlossen werden. Die GSM- Nutzdaten sowie die Signalisierungsdaten werden dann durch das IP-Netz hindurchge- tunnelt.

Cell Broadcast: Cell Broadcast oder Cell Broadcasting (kurz CB) ist ein Mobilfunk- dienst zum netzseitigen Versenden von Kurzmitteilungen an alle in einer bestimmten Basisstation eingebuchten MS.

BOS-GSM: BOS-GSM (je nach Anbieter auch BOS@GSM, GSM-BOS) ist eine Tech- nik zur digitalen Funkkommunikation von Anwendern mit besonderen Sicherheitsan- forderungen wie Behörden und Organisationen mit Sicherheitsaufgaben (BOS: Polizei, Feuerwehr, Rettungsdienste).

Im französischen Sprachgebrauch wird vor allem in Belgien häufig die Abkürzung „GSM“ für das deutsche Wort„Mobiltelefon“ benutzt. Auch in der bulgarischen Spra- che, die seit über 200 Jahren viele Wörter aus dem Französischen entlehnt, wird„GSM“ synonym für„Mobiltelefon“ gebraucht.

Sicherheitsdefizite: GSM hat einige Defizite in puncto Sicherheit aufzuweisen. Dazu zählen unter anderem: -Es wird nur symmetrische Kryptographie eingesetzt. Eine mögliche Lösung wäre die Verwendung von hybrider Verschlüsselung.

-Die Krypto-Algorithmen sind nicht öffentlich zugänglich und überprüfbar.

-Keine gegenseitige Authentifizierung von Mobilfunkteilnehmer und Basisstation des Netzbetreibers.

-GSM schützt nur unzureichend gegen eine Ortung der Mobilfunkteilnehmer durch au- ßenstehende Angreifer.

-Kein Schutz gegen einen Angreifer aus dem Mobilfunknetz (Ortung und Nachrichten- inhalte).

-Keine Ende-zu-Ende-Dienste möglich (Authentifizierung zwischen Teilnehmern, Ver- schlüsselung der Sprache). :83-84

-Man-in-the-middle

Das Protokoll von GSM ist gegen Man-in-the-Middle-Angriffe (MITM) nicht gewapp- net. Ein Beispiel für den möglichen Einsatz ist ein IMSI-Catcher. Das Gerät erzwingt die Ausschaltung der Verschlüsselung.

2003 präsentierten Elad Barkan, Eli Biham und Nathan Keller einen alternativen Man- in-the-middle-Angriff gegen GSM, der es ermöglicht, den A5/3- Verschlüsselungsalgorithmus zu umgehen. Dieser Angriff ist ein Angriff gegen das GSM-Protokoll und kein Angriff gegen die Chiffre KASUMI selbst. [18] Eine längere Version des Papers wurde im Jahr 2006 veröffentlicht. Der Angreifer positioniert sich mit einer eigenen Basisstation zwischen den mobilen Teilnehmer und der richtigen Ba- sisstation (Betreiber-Netzwerk). Die Challenge RAND wird an den mobilen Teilnehmer weitergereicht. Die Antwort SRES wird jedoch vom Angreifer zwischen gespeichert. Das Mobiltelefon wird nun vom Angreifer aufgefordert eine A5/2 -Verschlüsselung zu beginnen. Nach Zustandekommen der Verschlüsselung bricht der Angreifer innerhalb einer Sekunde den Geheimtext und extrahiert den Schlüssel Kc. Der Angreifer schickt nun das zwischengespeicherte SR£S an das Betreiber-Netzwerk. Der Angreifer ist ge- genüber dem Netzwerk authentifiziert. Das Netzwerk fordert den Angreifer nun auf, ei- ne Verschlüsselung A5/1 oder A5/3 zu nutzen. Der Angreifer benutzt den vorher extra- hierten Kc und es kommt eine verschlüsselte Kommunikation zustande. Der Angreifer kann anschließend Gespräche abhören, sie in Echtzeit dekodieren oder Zwischenspei- chern. Das Umleiten und die Übernahme von Gesprächen, das Verändern von SMS und das Führen von Gesprächen auf Kosten Anderer ist ebenfalls möglich.

Denial of Service: Im Rahmen des USENIX-Security Symposiums 2013 wurde gezeigt, dass mit Hilfe einer geschwindigkeitsoptimierten OsmocomBB-Firmware - auf weni- gen Geräten installiert - ein GSM-Netz zum Denial of Service gebracht werden kann, indem die präparierten Handys alle Paging-Requests beantworten (mit etwa 65 Antwor- ten pro Sekunde), bevor der berechtigte Empfänger reagieren kann. GSM sieht darauf- hin von weiteren Anfragen ab, eine Authentifizierung folgt erst im nächsten Schritt. Die Hälfte aller Netze (global) prüft in weniger als einem von zehn Fällen die Legitimation des Endgerätes.

Verschlüsselungsalgorithmen: A5 (Algorithmus) und KASUMI

Die Algorithmen A5/1 und A5/2 können in Echtzeit gebrochen werden. Der A5/3- Algorithmus mit einem 64 Bit-Schlüssel basiert auf der KASUMI-Chiffre. Die KASUMI -Chiffre gilt seit 2010 als theoretisch gebrochen. Ein erfolgreicher praktischer Angriff gegen A5/3 ist nicht bekannt. Als sicher gilt der A5/4-Algorithmus mit einem 128 Bit-Schlüssel.

Gegenmaßnahmen: Der Sicherheitsforscher Karsten Nohl fordert kurzfristig den Ein- satz von SIM-Karten mit zusätzlicher Verifikationsfunktion. Ein kleines Java- Programm auf der Karte könnte den Netzbetreiber gegenüber dem Mobilfunkteilnehmer verifizieren. Damit würde die jetzige einseitige durch eine gegenseitige Authentifizie- rung ersetzt. Dieses Vorgehen verhindert MITM-Angriffe und hilft auch gegen DoS- Paging-Angriffe. Außerdem müssen Netzbetreiber und Mobilfunkgeräte den Verschlüs- selungsalgorithmus A5/3 benutzen und auf Kombinationen mit A5/1 oder A5/2 verzich- ten. Langfristig fordert der Experte den Einsatz von A5/4 und die Nutzung von USIM- Karten.

Beispiel: Abhören des Parteihandys von Angela Merkel: Im Oktober 2013 berichteten mehrere Medien über das Abhören von Angela Merkels Parteihandy durch die US- amerikanische National Security Agency (NSA). Laut FAZ besaß Merkel zu diesem Zeitpunkt einen Mobilfunkvertrag mit Vodafone. Es bestand der Verdacht, dass das GSM-basierte Funknetz des Providers durch die NSA angezapft wurde.

GSM arbeitet mit unterschiedlichen Frequenzen für den Uplink (vom Mobiltelefon zum Netz, Unterband) und den Downlink (vom Netz zum Mobiltelefon, Oberband). Die fol- genden Frequenzbänder können vom Mobilfunkanbieter verwendet werden: Aus Ko- stengründen erfolgte der Bau von neuen Mobilfunknetzen (z. B. Australien/Telstra) oder Mobilfunknetz-Erweiterungen (z. B. Schweiz/Swisscom) nur mit der neueren Mo- bilfunktechnologie UMTS. Neue Mobilfunkstationen senden immer öfter nur ein UMTS- und LTE-Signal aus.

Situation in Deutschland bis 2017: In Deutschland fand GSM-Mobilfunk bis zum Jahr 2005 nur im P-GSM- und DCS-1800-Bereich statt. Ende 2005 öffnete die Bundesnetz- agentur den gesamten E-GSM-Frequenzbereich für den GSM-Mobilfunk. Daraufhin begannen E-Plus und 02 ab April 2006 zum Teil in den E-GSM-Bereich umzuziehen (E-Plus: 880,2 - 885,0 MHz / 925,2 - 930,0 MHz und 02: 885,2 - 890,0 MHz / 930,2 - 935,0 MHz). Diese Bereiche nutzen die beiden Anbieter von nun an zum Ausbau ihrer Netze in dünn besiedelten Regionen.

Somit verfügen alle vier deutschen Mobilfunkanbieter über Spektren in beiden Berei- chen. Die alten Zuweisungen im DCS-1800-Bereich mussten sie zum Teil als Aus- gleich im Januar 2007 abgeben. Sie wurden bei der Frequenzauktion im Jahr 2010 neu vergeben: 1710,0 - 1715,0 MHz / 1805,0 - 1810,0 MHz für 20,7 Mio.€ an Telekom (bisher durch die Bundeswehr genutzt)

1715,0 - 1720,0 MHz / 1810,0 - 1815,0 MHz für 20,7 Mio.€ an Telekom (bisher durch die Bundeswehr genutzt)

1720,0 - 1725,0 MHz / 1815,0 - 1820,0 MHz für 19,87 Mio.€ an Telekom (bisher durch die Bundeswehr genutzt)

1730,1 - 1735,1 MHz / 1825,1 - 1830,1 MHz für 21 ,55 Mio.€ an E-Plus (bis Januar 2007 02) 1758,1 - 1763,1 MHz / 1853,1 - 1858,1 MHz für 21 ,54 Mio.€ an E-Plus (bis Januar 2007 E-Plus)

Die aktuellen GSM-Lizenzen laufen sind 2016 ausgelaufen. Das obere Bandende des GSM1800-Bereiches (ab ARFCN 864) wurde bis zur Frequenzauktion 2015 freigehal- ten, um störende Beeinflussungen bei DECT-Schnurlostelephonen zu vermeiden (sog. DECT-Schutzband 1875,5 - 1880,0 MHz). Außerdem wurde dieser Bereich bis Ende 2015 für temporäre und dauerhafte Test- und Versuchsanlagen durch die Bundesnetz- agentur an Firmen wie auch Privatpersonen vergeben.Die DB betreibt entlang der Ei- senbahnstrecken ein nicht öffentliches GSM-R-Mobilfunknetz.

Ende Juni 2013 hatte die Bundesnetzagentur bekannt gegeben, dass die zum 31. De- zember 2016 ablaufenden Nutzungsrechte an den Mobilfunkfrequenzen erneut in einer Auktion versteigert werden sollen. Neben den Frequenzen im 900-MHz- und 1800- MHz-Bereich, sollen ebenfalls Frequenzblöcke im Bereich von 700 MHz und 1,5 GHz im Rahmen der Auktion vergeben werden. Den bisherigen vier Mobilfünknetzbetrei- bem soll je ein Frequenzblock im 900-MFIz-Bereich außerhalb der Auktion zugeteilt werden, um die Grundversorgung zu sichern.

Die ab 1. Januar 2017 gültigen Bundesnetzagentur-Konzessionen erlauben die Nutzung der Mobilfunkfrequenzen durch die deutschen Mobilfunkanbieter wie nachfolgend ab- gebildet. Das von der Bundesnetzagentur zugewiesene Frequenzband kann vom Mobil- funkanbieter in Deutschland für GSM, UMTS oder LTE genutzt werden. Üblich ist die Nutzung des zugewiesenen Frequenzbandes für unterschiedliche Techniken (zum Bei- spiel: E-UTRA Band 8: GSM und UMTS). Die DB betreibt entlang der Eisenbahn- strecken ein nicht öffentliches GSM-R-Mobilfunknetz. Die Angaben für E-UTRA Band 8 entsprechen der Zuteilung ab 2017!

Es wird erwartet, dass GSM langfristig durch Nachfolgestandards ersetzt wird. Wäh- rend in Australien und Singapur die Abschaltung im Jahr 2017 bereits beschlossen wurde, steht z. B. für Deutschland und Österreich noch kein Abschaltter in fest, jedoch wird in der Schweiz wahrscheinlich ab 2021 kein öffentliches GSM-Mobilfunknetz mehr zur Verfügung stehen.

Sunrise Schweiz plant, das 2G-Netz abbauen und 5G-Antennen zu montieren. Laut Huawei wird damit 2G emuliert. Dies hat den Vorteil, dass alle "alten" 2G-Telefone in der Schweiz weiter funktionieren. Es gibt noch sehr viele Anwendungen, die 2G brau- chen: Ampelsteuerungen, Feueralarm, Weichen des Eisenbahnnetzes, alte eingebaute Autotelefone usw.

89. Steuergerät

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuerge- rät enthaltend. Verwendung des elekronischen Elementes (E) in der Steuerungs Re- gel ungs- und Messtechnik.

Steuergeräte (engl. ECU = electronic control unit oder ECM = electronic control modu- le) sind elektronische Module, die überwiegend an Orten eingebaut werden, an denen etwas gesteuert oder geregelt werden muss. Steuergeräte werden im Kfz-Bereich in al- len erdenklichen elektronischen Bereichen eingesetzt, ebenso zur Steuerung von Ma- schinen, Anlagen und sonstigen technischen Prozessen. Sie zählen zu den eingebetteten Systemen. Zu Beginn der elektronischen Motorsteuerung wurden Steuergeräte vornehmlich bei Zündungen eingesetzt, seit 1987 werden sie auch zur elektronischen Regelung von Die- selmotoren verwendet. Etwa seit Mitte der neunziger Jahre wurden mechanische Regel- konzepte bei Verbrennungsmotoren nahezu vollständig durch elektronische Steuergerä- te verdrängt. Für den Benutzer sichtbare Steuergeräte sind heute der Tachometer in seiner neuen Form als Kombiinstrument zusammen mit Drehzahlmesser und diversen anderen An- zeigen. Sensoren wie Tankstandsmesser und Öldruckmesser sind heute mit eigenen Steuergeräten verbunden, die u. a. eine Langzeitüberwachung realisieren und auch beim Sensor selbst per Plausibilitätsprüfung seiner Ausgabewerte ständig seine Funktionsfä- higkeit überwachen.

Steuergeräte arbeiten allgemein nach dem EVA-Prinzip. EVA steht für Eingabe- Verarbeitung-Ausgabe. Für die Eingabe stehen Sensoren zur Verfügung. Diese ermit- teln eine physikalische Kenngröße wie z. B. Drehzahl, Druck, Temperatur usw. Dieser Wert wird mit einer im Steuergerät eingegebenen oder berechneten Sollgröße vergli- chen. Sollte der gemessene Wert mit dem eingespeicherten Wert nicht übereinstimmen, regelt das Steuergerät mittels Aktoren den physikalischen Prozess nach, so dass die ge- messenen Istwerte wieder mit den Sollgrößen übereinstimmen. Die Aktoren greifen al- so korrigierend in einen laufenden Prozess ein.

Während„elektronische Zündungen“ der frühen Jahre noch aus diskreten, analogen Elektronikschaltungen aufgebaut wurden, sind heutige Steuergeräte in der Regel mit „Eigenintelligenz“ versehen, d. h., sie bestehen aus einem eigenständigen Computer in Form eines eingebetteten Systems. Die Größe dieses Computers variiert je nach Kom- plexität seiner Aufgaben erheblich, es reicht von einer Ein-Chip-Lösung mit einem Mi- krocontroller (mit eingebautem RAM- und ROM-Speicher) bis hin zu Mehrprozes- sorsystemen mit eigenem Grafikausgabesystem. Die Programmierung der meisten heute verbauten Steuergeräte kann durch Verwendung umprogrammierbarer Flash-Speicher durch die Werkstatt aktualisiert werden.

In aktuellen Fahrzeugen werden Steuergeräte über verschiedene Systembusse (CAN, LIN, MOST, FlexRay, Ethernet) miteinander verbunden. Die Geräte tauschen darüber systemweit Informationen über die Betriebszustände und weiteren relevanten Daten im Fahrzeug aus. Außerdem wird über solche Busse (und evtl die K-Leitung) die On- Board-Diagnose bzw. ein Fahrzeugdiagnosesystem angeschlossen. Darüber kann von außen mit sogenannten Diagnosegeräten (alternativ mit normalen Personal Computern plus einer passenden Schnittstelle) mit den Steuergeräten kommuniziert werden. Hier- bei wird vor allem abgefragt, ob das Steuergerät bei den ständigen Selbsttests irgend- welche Fehler bei sich selbst oder bei den an ihn angeschlossenen Sensoren festgestellt und registriert hat. So kann einer Werkstatt mit einer Meldung wie beispielsweise „Masseschluss beim Tankgeber“ sehr viel Untersuchungsarbeit erspart werden. Dabei kommen häufig Diagnoseprotokolle wie KWP2000 oder UDS zum Einsatz.

Aufgrund der steigenden Komplexität und Anforderungen an die Software und dem Kommunikationsbedarf zwischen den Steuergeräten hat sich in Deutschland OSEK-OS als Echtzeitbetriebssystem und Kommunikationsstandard etabliert. Eine weitere Maß- nahme ist die zunehmende Standardisierung der Steuergeräte-Architekturen, wie zum Beispiel in der AUTOSAR-Entwicklungspartnerschaft.

Inzwischen befinden sich in einem normalen KFZ mehr als zehn Steuergeräte über das gesamte Fahrzeug verteilt. Moderne Luxuslimousinen haben zum Teil mehr als 100 Steuergeräte eingebaut. Die Palette der eingesetzten Mikrocontroller reicht vom 8- bis zum 32-Bit-Rechner. Steuergeräte werden nur selten vom Automobilhersteller selbst entwickelt und gefertigt. Meistens werden diese von Automobilzulieferem im Auftrag des Automobilherstellers entwickelt.

Um die Interoperabilität der verschiedenen Steuergeräte in den verschiedenen Varianten verschiedener Fahrzeugmodelle sicherzustellen, schreibt der Automobilhersteller meist eine bestimmte Softwareausstattung vor, die der Zulieferer zu benutzen hat. Ziel dieser einheitlichen Softwareausstattung ist eine reibungslose Vernetzung und Integration aller Steuergeräte zu einem Gesamtsystem.

Diese Grund-Softwareausstattung wird im Allgemeinen als Standard-Core des jeweili- gen Herstellers bezeichnet. Ein Entwicklungsziel ist immer, auf voraussehbare Extremsituationen korrekt zu reagie- ren. Dazu zählen vor allem die Unterspannung, als Spezialfall davon der Startspan- nungsimpuls, sowie extreme Temperaturen in beiden Richtungen.

90. Verkehrstelematik

Es folgen weitere Ausfiihrungsformen der Erfindung: Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuerge- rät enthaltend. Verwendung des elekronischen Elementes (E) in der Steuerungs Re- gelungs- und Messtechnik, insbesondere zur zumindest teilweise automatisierten und/oder autonomen Verkehrssteuerung und/oder Verkehrslenkung.

Verkehrstelematik ist der Einsatz von Telematik im Verkehr. Sie beschäftigt sich mit der Erfassung, Verarbeitung und Darstellung von Daten zu Fahrzeugen mit ihrem zu transportierenden Inhalt, dem Versand und Empfang von Personen oder Gütern. Die Verkehrstelematik unterstützt die Koordinierung innerhalb von oder zwischen Ver- kehrssystemen wie Straßen-, Schienen-, Schiffs- und Luftverkehr.

Verkehrstelematik bzw. der international gebräuchliche Begriff ITS (engl. Intelligent Transportation Systems) bezeichnet das Erfassen, Übermitteln, Verarbeiten und Nutzen verkehrsbezogener Daten mit dem Ziel der Organisation, Information und Lenkung des Verkehrs unter Nutzung von Informations- und Kommunikationstechnologien.

Verkehrspolitisch besteht gegenüber Verkehrstelematik eine sehr hohe Erwartung. Ver- kehrstelematik soll dazu beitragen, das Verkehrsgeschehen effizienter, ökologischer und sicherer abwickeln zu können, vorhandene Infrastruktur optimal zu nutzen, die Verkehrsteilnehmer umfassend, aktuell und leicht zugänglich zu informieren und den Verkehr gezielt und dynamisch zu steuern bzw. zu verlagern. Umfassende und aktuelle Verkehrsinformation, die auf Verkehrstelematik basiert, soll zum Umstieg auf ökologi- sche Verkehrsmittel anregen und somit Verkehrs- und umweltpolitische Ziele unterstüt- zen. Im Logistikbereich dient Verkehrstelematik der effizienten Organisation und dy- namischen Planung von Transportprozessen. Auch zur Abwicklung monetärer Steue- rungsmaßnahmen (Bemautung, Citymaut) werden Verkehrstelematik-Applikationen eingesetzt.

Für einzelne Verkehrsmodi (z. B. motorisierter Individualverkehr) bestehen bereits um- fangreiche Verkehrstelematiklösungen. Intermodale Lösungen (also die Verbindung von motorisiertem Individualverkehr, öffentlichem Verkehr, Radfahren und zu Fuß ge- hen) bestehen bereits vereinzelt auf regionaler Ebene; auf nationaler und internationaler Ebene laufen zahlreiche Projekte in diese Richtung. Die zentralen Herausforderungen sind dabei aber nach wie vor verschiedene Standards, Schnittstellen, Datenqualitäten und organisatorische Zuständigkeiten auf regionaler, nationaler und internationaler Ebene sowie zwischen den verschiedenen Modi.

Nach einer Studie des ADAC stehen Autofahrer in Deutschland durchschnittlich rund 65 Stunden im Jahr im Verkehrsstau, Tendenz steigend. Im Stau werden jährlich rund 14 Milliarden Liter Kraftstoff zu viel verbraucht, die zugunsten von Natur und Umwelt vermieden werden könnten. Des Weiteren schadet der Stau der Wirtschaft allgemein (die Mineralölkonzeme ausgenommen), z. B. durch verlorene Arbeitszeit. Aus diesen Gründen (Sauberkeit, Verkehrssicherheit, Effizienz) kümmert sich die Europäische Kommission um das Thema Intelligent Transport Systems (ITS).

Durch gezielten Einsatz der Verkehrstelematik lassen sich die vorhandenen Verkehrs- wege besser ausnutzen. So kann dem Kraftfahrer rechtzeitig und aktuell bekannt gege- ben werden, was ihn auf seiner gewählten Route erwartet und wie er etwaige Engpässe und Problemstellen umgehen kann. Verkehrsmeldungen im Rundfunk ist dazu in der Regel nur eingeschränkt in der Lage, da er meist nur jede halbe Stunde berichtet und manche Staus, die er ansagt, zwischenzeitlich nicht mehr vorhanden sind oder der Fah- rer nicht mehr die Möglichkeit hat, eine andere Strecke zu wählen.

Zu beachten ist allerdings, dass Optimierungen im Ablauf des Straßenverkehrs regel- mäßig zur Folge haben, dass Verkehrswiderstände im Netz sinken. Das kann sowohl an den betroffenen Stellen als auch insgesamt zu Mehrverkehr und Stadtflucht führen. Da- durch erhöhen sich Gesamt-Kraftstoffverbrauch und Schadstoffausstoß, das Ziel Um- weltschutz wird in Frage gestellt.

Eines der größten Einsatzgebiete der Telematik ist die Verkehrstelematik. Hierunter fal- len alle elektronischen Steuerungssysteme, mit deren Hilfe Verkehr koordiniert wird. Hier liegen viele Hoffnungen zur Verkehrsvermeidung, doch auch hier wird bis zu ei- nem möglichen Masseneinsatz noch einige Zeit vergehen.

Folgende Ziele sollen mit der Verkehrstelematik erreicht werden:

-Steigerung der Effizienz der vorhandenen Verkehrsinfrastruktur

-Vermeidung von Staus sowie Leer- und Suchfahrten

-Kombination der Vorteile der einzelnen Verkehrsträger (Schiene, Straße, Wasser, Luft) und Verschmelzung zu einem integrierten Gesamtkonzept (Modal Split)

-Erhöhung der Verkehrssicherheit, daraus resultierend Verringerung der Unfälle und der Staugefahr

-Verringerung der Umweltbelastung (insbesondere C02) durch Steuerung des Verkehrs und des Fahrverhaltens (EcoDrive-System)

-Überwachung der Fracht, z. B. Monitoring der Temperatur im Frachtraum[5)

Individualverkehr

-Der Autoverkehr ist wohl neben dem Schienenverkehr das größte Einsatzgebiet der Verkehrstelematik.

An deutschen Autobahnen werden an neuralgischen Punkten zunehmend Wechselver- kehrszeichen installiert. Mit deren Hilfe können Verkehrsströme beeinflusst werden, z. B. durch Warnhinweise oder Geschwindigkeitsbeschränkungen, aber auch Umlei- tungsempfehlungen. Voraussetzung ist allerdings das Vorliegen von Verkehrsdaten, die durch optische, induktive oder andere Verfahren erfasst werden. In einer Verkehrsleit- zentrale werden die Daten gesammelt und in Verkehrsinformationen verarbeitet. So lässt sich z. B. eine Höchstgeschwindigkeit errechnen, die einen reibungsloseren Ver- kehrsfluss gewährleistet. Auch bei schlechter Witterung beschränken diese Anlagen die Maximalgeschwindigkeit. Unfälle konnten so um 30 %, schwere Unfälle sogar um 50 % gesenkt werden.

Seit Herbst 1997 existiert der sog. RDS/TMC. Hinter dieser Abkürzung verbirgt sich der englische Ausdruck„Radio Data System/Traffic Message Channel“. Es handelt sich hierbei um einen Verkehrswarndienst, durch den sich Stau- und Gefahrensituationen per Datenübertragung über UKW z. B. im geeigneten Autoradio jederzeit gezielt und beliebig wiederholbar abrufen lassen. Dadurch wird die Sicherheit erhöht und der Ver- kehr gleichmäßiger auf verschiedene Straßen verteilt.

Relativ bekannt und in zunehmendem Maße verbreitet sind Navigationssysteme in Straßenfahrzeugen. Anstatt sich mit dem Straßenatlas oder dem heimischen Computer eine Route zu suchen, wird der Fahrer über Satellitennavigation zum Ziel geleitet. Auf diese Weise wird der durch„Verfahren“ entstehende Verkehr sowie ein Teil des Such- verkehrs geringer, denn in modernen Systemen sind z. B. Parkhäuser mitverzeichnet. Eine Kombination aus aktuellen Verkehrsnachrichten, Echtzeit-Bewegungsdaten und Satellitennavigation kann bereits heute die optimale Wegstrecke finden.

Gerade dann, wenn Fahrer oft ihnen unbekannte Strecken fahren, helfen solche Syste- me. Dies ist z. B. beim Güter- und Taxiverkehr sowie beim Pannendienst und beim Notruf der Fall. Verkehrsstromanalysen stützen sich auf Daten verschiedener Sensoren für Verkehrsfluss und -dichte. Daraus lassen sich Reisezeiten errechnen (und diese In- formation durch Verkehrsbeeinflussungsanlagen in Echtzeit an die Lenker vor Ort wei- tergeben), oder es liegen auswertbare Daten für die Verkehrsplanung eines Raumes vor.

In Zukunft sollen Daten auch via kooperativer Systeme von I2V (Infrastructure to Ve- hicle) und C2C / V2V (Car to Car bzw. Vehicle to Vehicle) ausgetauscht werden. Auf der Straße bedeutet Kooperation, dass Fahrzeuge untereinander und mit der Infrastruk- tur kommunizieren. Die Daten, die im Fahrzeug vorhanden sind, werden erfasst und zu einem zentralen Rechner geschickt, der sie auswertet. Mit diesen Daten kann z. B. fest- gestellt werden, ob es regnet oder sich gerade ein Stau bildet (Scheibenwischer einge- schaltet = Regen, häufiges Bremsen = Stau). Die kooperativen Systeme sollen den Fah- rer besser bei ihren Aufgaben unterstützen. Das System soll mittels eines Funknetzwer- kes realisiert werden, das die Daten vom Fahrzeug zu einem zentralen Rechner schickt und auswertet. Der Zentralrechner ermittelt eine Fahrempfehlung, die dem einzelnen Fahrer speziell übermittelt wird.

Das Ziel von kooperativen Systemen ist, dass die Infrastruktur besser genutzt bzw. ge- plant und damit die Sicherheit im Straßenverkehr erhöht wird. Die offizielle Definition für kooperative Systeme im Straßenverkehr der Europäischen Kommission lautet: „Straßenbetreiber, Infrastruktur, Fahrzeuge, ihre Fahrer und andere Straßenbenutzer kooperieren, um eine möglichst effiziente, sichere und angenehme Fahrt zu ermögli- chen. Zwischen Fahrzeugen und Infrastruktur kooperierende Systeme werden über die Möglichkeiten isolierter Systeme hinaus zur Erreichung dieser Zielsetzung beitragen.“ Die Einführung einer kilometerabhängigen Straßenbenutzungsgebühr ist eine Möglich- keit zum Kostenausgleich durch den motorisierten Individualverkehr. Auch hier können Telematiksysteme bei der Erfassung behilflich sein.

In vielen Städten ist bereits die Einführung von verkehrsabhängig geschalteten Lichtsi- gnalanlagen (LSA) erfolgt. Auf diese Weise sollen die Signalphasen nach Bedarf gere- gelt werden. Dies entlastet die Umwelt durch weniger Abgase. In diesem Zusammen- hang muss auch das Hintereinanderschalten mehrerer Ampeln zur„grünen Welle“ ge- nannt werden.

Kommunal betriebene Verkehrs leitsysteme reduzieren den Parksuchverkehr. Durch Parkleitsysteme und P+R-Informationssysteme wird die Innenstadt vom motorisierten Individualverkehr etwas entlastet. Eine neue Erscheinungsform stellen auch mobile Gemeinschaften dar. Sie teilen Ihre Telemetrie-Daten im Netzwerk mit allen anderen Teilnehmern. Dadurch wird es möglich, neue Karten auf Basis von GPS-Daten zu er- stellen und aktuell zu halten. Ebenfalls werden Geschwindigkeits- und Stauinformatio- nen geteilt und daraufhin alternative Routen vorgeschlagen. Unfälle und außerordentli- che Vorkommnisse können ebenfalls manuell erfasst und mit dem Netzwerk geteilt werden.

Öffentlicher Personennahverkehr (ÖPNV): In allen größeren Verkehrsuntemehmen, insbesondere in Verkehrsverbünden, regelt ein telematisches Betriebsleitsystem (RBL) den präzisen und reibungslosen Ablauf im ÖPNV. ÖPNV-Fahrzeuge können durch Vorrangschaltungen an Ampeln bevorrechtigt werden. Wenn die Fahrzeuge nur noch an den Haltestellen halten, wird eine Erhöhung der Reisegeschwindigkeit erreicht, die die Anzahl der benötigten Fahrzeuge reduzieren kann. Oft trifft man auch Busspuren mit eigenen Signalanlagen an.

Sowohl im Nahverkehr der Verkehrs verbünde als auch im Fernverkehr der Bahn setzen sich immer mehr elektronische Informations-, Buchungs- und Reservierungssysteme durch. So soll der Kunde zum Umsteigen auf öffentliche Verkehrsmittel angehalten und dadurch eine nachhaltige Verkehrsreduzierung erreicht werden. Ab 2018 soll das inte- grierte Auskunftssystem DELFI über den öffentlichen Personenverkehr über Verbunds- und Bahngrenzen hinaus Auskünfte erteilen.

Auch der gesamte Bereich der technisch realisierten Zugsicherungssysteme zählt zur Verkehrstelematik und stellt damit das älteste und wohl auch umfangreichste Einsatz- gebiet dar. So zählen auch die technische Sicherung eines Bahnüberganges durch Si- gnalanlagen bzw. Warnanlagen dazu.

Güterverkehr: Beim Güterverkehr kommt zum erstrebten reibungslosen, termingerech- ten Ablauf vor allen Dingen ein funktionierender Warenumschlag zwischen den Ver- kehrsträgern und an kundenspezifischen Schnittstellen dazu. Auch hier wird ein Be- triebsleitsy stem eingesetzt, das die Koordination übernimmt. So soll die Fahrtenanzahl verringert und der Umstieg auf Schiene und Binnenschifffahrt erleichtert werden.

Einen weiteren großen Unterschied bildet der ausgeprägte Einsatz von telematischen Logistiksystemen. Funk- und satellitengestützte Flottenmanagementsysteme, auch„Te- lematiksysteme“ genannt, erleichtern das Auffmden von Ware (dies ist in den USA bei UPS bereits für jeden Kunden per Internet möglich), sorgt für eine verbesserte Nutzung des Transportraums und reduziert Leerfahrten und Umwege.

In Güterverkehrszentren wird der Güterfernverkehr mit den City-Logistiksystemen ge- koppelt. Besonders in der Stadt können so Wegstrecken optimiert und eine stadtgerech- te Fahrzeugwahl vereinfacht werden.

Telematik wird im Flottenverkehr ebenfalls zur Ermittlung wertvoller Kenngrößen ge- nutzt. Grundlage dafür ist die Verknüpfung und Erfassung verschiedener Sensordaten aus dem Zugfahrzeug und dem Sattelauflieger. Als Daten dienen hierfür heutzutage entweder Informationen, die direkt über den Fahrzeug-CANBUS an das Flottenma- nagementsystem gesendet werden, oder Daten von externen Sensoren, die nachträglich, z. B. per Funk, an das Telematiksystem angeschlossen worden sind. Diese Daten kön- nen ausgewertet werden und geben Auskunft, ob beispielsweise die Temperatur im Frachtraum innerhalb eines erlaubten Bereiches (z. B. +1 °C bis +10 °C) geblieben ist. In diesem Zusammenhang sei der branchenweit vertretene FMS-Standard zu erwähnen. Dieser Standard definiert eine Anzahl von Parametern, die über ein Telematiksystem eingelesen und verarbeitet werden können. Diese umfassen z. B. die Stellung des Bremspedals und die Motordrehzahlen.

Schienengüterverkehr: Verkehrstelematik findet ebenfalls Anwendung im europäischen Schienengüterverkehr. Bis zur Jahrtausendwende gab es im europäischen Schienenver- kehr kein funktionierendes Ortungssystem auf Wagenebene. Dies führte zum scheinba- ren Verschwinden von teilweise ganzen Zügen, da einzelne Güterwagen nicht geortet werden konnten. Ausgehend von Versuchsfahrten in den späten 1990er Jahren rüstet die DB Cargo Güterwagen und Transportbehältnisse mit einem autarken Telematik-System zur Lokalisierung von Güterwagen seit 2003 aus. Dieses Telematik-System kombiniert die Eigenschaften des Satellitenortungssystems GPS mit den Möglichkeiten des Mobil- funknetzes GSM. Das Telematik-System überwacht die Transporteinheit inklusive an- geschlossener Sensoren und meldet alle Daten über die GSM-Netze an einen zentralen Kommunikationsserver der Deutschen Bahn.

Schifffahrt und Luftfahrt: In beiden Transportsystemen spielt die Sicherheit durch Te- lematik-Anwendungen eine besondere Rolle. So überwachen Radarsysteme sowohl den Luft- als auch den Seeraum. Die Schifffahrt im Bereich des Küsten- und Binnenschiffs- verkehrs wird zunehmend über das Automatic Identification System (AIS) gelenkt und überwacht. Gleichzeitig tauschen die Schiffe über AIS untereinander Navigations- und Reisedaten aus. Die von der Europäischen Organisation zur Sicherung der Luftfahrt in Brüssel koordinierte Luftraumüberwachung soll das geplante Luftverkehrsaufkommen und die Kapazitäten aufeinander abstimmen.

Nach Auskunft des Flughafens München wird der Luftraum jedoch noch immer von re- lativ vielen kleinräumigen Zentralen überwacht. Hier besteht also mit Sicherheit noch Handlungsbedarf. Auch die Produktivität und die Auslastung soll mithilfe von IuK- Techniken verbessert werden. Satellitensysteme werden zur Erstellung von elektroni- schen Seekarten, Streckenflugrouten und Landemanövern benutzt. Auch der Transport von Gefahrgut profitiert von diesen Systemen.

91. Ortung, Ortsbestimmung

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element mit Ortungs- und/oder Ortsbestim- mungsfunktion.

Als Ortung werden Verfahren bezeichnet, mit denen die räumliche Position entfernter Objekte im Verhältnis zum Beobachter ermittelt wird. In der Regel wird hierbei in be- stimmter Richtung eine Distanzmessung vorgenommen. Dafür können Signale ausge- sandt werden, die vom zu ortenden Objekt durch Reflexion zurück an den Sender ge- langen, so etwa Licht oder Schallwellen. Bekannte Beispiele für aktive Ortungsvorgänge mittels Schallwellen sind die Ortungs- rufe der Fledermäuse und technische Verfahren wie das (aktive) Sonar bzw. das Echo- lot. Aktive Verfahrenstechniken mittels elektromagnetischer Wellen sind das Radar und der elektrooptischen Entfernungsmessung.

In weitem Sinn wird auch die Lokalisation anhand (passiv) empfangener Signale oft ei- ne Ortung genannt. Beispiele hierfür sind die Ortung innerhalb des Globalen Navigati- onssatellitensystems (etwa Global Positioning System, GPS), die GSM-Ortung im Mo- bilfunknetz, sowie die WLAN-basierte Ortung, welche vor allem in Innenräumen ein- gesetzt wird. Weitere Beispiele sind die Ortung einer seismischen Quelle anhand aufge- zeichneter seismischer Wellen bei der Lagebestimmung von Erbebenherden und die au- ditorische Lokalisation einer Schallquelle beim Hören.

Im Unterschied zur Ortung wird unter Ortsbestimmung die Bestimmung des (eigenen) Standorts verstanden. Diese gelingt bezüglich eines übergeordneten oder globalen Ko- ordinatensystems und der Bezugspunkte eines Referenzsystems erst auf der Grundlage mehrerer Messungen und anschließender Berechnungen (siehe auch Navigation).

Die Ortsbestimmung, Positionsbestimmung oder Verortung, auch Lokalisierung, ist die Ermittlung des Ortes in Bezug zu einem definierten Fixpunkt (Bezugssystem). Ortsbe- stimmung im Speziellen ist die Bestimmung des eigenen Standortes, hingegen wird die Bestimmung der Position eines fernen Objekts Ortung genannt. Die bloße Feststellung der Anwesenheit eines Objekts wird Detektion genannt.

Eine Ortsbestimmung betrifft üblicherweise Orte im Freien. Für Echtzeit-Anwendungen sind solche Systeme nach ISO 19762-5 standardisiert. Eines der bekanntesten und meistverbreiteten Systeme ist das satellitengestützte Global Positioning System (GPS), dessen Empfänger durch Miniaturisierung den Einbau in vielen Smartphones und Tabletcomputern ermöglicht. Elektronische Systeme (funkgestützt, optisch oder akustisch) ermöglichen auch die ge- naue Ortsbestimmung im Innern von Gebäuden. Zu beachten sind dabei einige Beson- derheiten der Messverfahren zwischen reflektierenden Flächen.

Die mathematischen Verfahren der Ortsbestimmung sind durch die euklidische Geome- trie der ebenen Dreiecke (Trigonometrie) und der Kugeldreiecke (Sphärische Trigono- metrie) definiert.

Zur Ortsbestimmung bestehen folgende mathematische Tatsachen:

-Ebene Dreiecke werden durch drei Größen, davon mindestens eine Länge, eindeutig bestimmt.

-Kugeldreiecke werden durch vier Größen, davon mindestens eine Länge, eindeutig be- stimmt.

-Orte auf der Ebene werden durch zwei Größen und eine Bezugsgröße sowie eine Ori- entierungsgröße (Drehwinkel) bestimmt.

-Orte im Raum werden durch drei Größen und eine Bezugsgröße sowie eine Orientie- rung bestimmt.

-Orte auf der Kugeloberfläche werden durch zwei Größen und eine Bezugsgröße sowie eine Orientierung bestimmt.

-Orte im Kugelvolumen werden durch drei Größen und eine Bezugsgröße sowie eine Orientierung bestimmt.

Die (nicht eindeutige) Bestimmung eines Ortes durch eine Linie, die durch diesen Ort geht und die sich auf eine weitere Linie, die Standlinie, bezieht, nennt man Peilung. Für die eindeutige Bestimmung eines Ortes durch Peilungen benötigt man außer der in Richtung und zwei Punkten bekannten Standlinie und der Orientierung gegenüber die- ser Standlinie genau zwei Peilungen. Mehr als zwei Peilungen können die Genauigkeit verbessern.

Die (nicht eindeutige) Bestimmung eines Ortes durch eine Linie, die durch diesen Ort geht und die eine Metrik für den Abstand einschließt, nennt man Entfernung. Für die eindeutige Bestimmung eines Ortes durch Entfernungen benötigt man außer der in Richtung und zwei Punkten bekannten Standlinie und der Orientierung gegenüber die- ser Standlinie genau zwei Entfernungen. Mehr als zwei Entfernungen können die Ge- nauigkeit verbessern.

Ort und Lage (Orientierung): In räumlichen Bezugssystemen ist zwischen Ort (der Posi- tion im Raum) und der Lage (Orientierung im Raum) zu unterscheiden. Ein Körper kann seine Raumlage durch Verdrehung ändern, ohne seinen Ort zu ändern und umge- kehrt. Das Bezugssystem erfasst beide Aspekte, sodass die vollständige räumliche An- gabe eines Objekts seinen Ort und seine Orientierung erfordert.

Wird die Ortsangabe eines Objekts um seine Bewegung erweitert, sind auch die Zeiten anzugeben, zu denen die Orts- und Lagedaten gelten. Die Verwendung der Begriffe Ort (Position durch Angabe der Koordinaten und ihrer Metrik) sowie Lage (Orientierung der Koordinaten und Lagewinkel im Raum) ist vielfach unscharf, ebenso wie bei Be- schreibungen der Einmessung. So erfasst eine Peilung nicht den Ort, sondern lediglich eine Richtung (bzw. einen Winkel) zum angepeilten Ort. Eine Entfernungsmessung er- fasst nicht die Lage des Objekts relativ zum Bezugspunkt, sondern nur die Strecke bis zu diesem Ort.

Die terrestrische Navigation misst für Ortsbestimmungen überwiegend nur Positionen in einem Bezugssystem, die Inertialnavigation hingegen nur die Bewegung. Die erfor- derlichen Integrationskonstanten zur Bestimmung von Ort und Lage können aus gemes- senen Beschleunigungen und Winkelgeschwindigkeiten inertial nicht direkt ermittelt werden. Dazu benötigt man weitere Instrumente wie nordsuchende Kreisel oder hilfs- weise Magnetkompass und Odometer oder auch die Ermittlung des zurückgelegten Weges aus dem Integral punktuell gemessener Geschwindigkeiten über die einzelnen gemessenen Zeiten.

Die Bestimmung eines Ortes nennt man Ortsbestimmung oder Positionsbestimmung. Die Bestimmung des Ortes eines Objekts nennt man Ortung oder Lokalisierung. Die Änderung eines Objekts im Ort nennt man Verschiebung oder Translation.

Die Änderung eines Objekts in der Raumlage nennt man Drehung oder Rotation.

Die Änderung eines Objekts in Ort und Raumlage nennt man korrekt Positionierung.

Die Bestimmung der Bewegung eines Objekts durch mehrere Orte nennt man Spur.

Die Bestätigung eines vermuteten Ortes durch einen weiteren Meßpunkt mittels Peilung heißt bestätigter Ort.

Eigenortsbestimmung und FremdortungUm den Begriff Ortsbestimmung zu präzisie- ren, bezeichnet man:

die Bestimmung der Lage (Ort) oder Bahn (Spur) eines Objektes oder eines von einem Objekt ausgehenden Signals als Fremdortung,

die Bestimmung des eigenen Ortes als Eigenortsbestimmung. Sie legt den Standort bei- spielsweise als Schnittpunkt der Standlinien fest.

Jede Ortsbestimmung wird mittels Koordinaten in einem Koordinatensystem bezeichnet oder mit anderen Beschreibungsmitteln gegenüber der Umgebung herausgehoben.

Methoden der Ortsbestimmung: Die Methoden der Ortsbestimmung sind so vielfältig wie die Fachgebiete, die sie benötigen.

Die Reichweite geht vom Nanobereich (Physik) über einige Zentimeter (Kartometrie), 100 km (Navigation), 30.000 km (GPS) bis zu vielen Lichtjahren in der Astronomie.

Die Messmethoden sind vor allem Ermittlung von Entfernungen, Winkel, Richtungen, Höhen und Laufzeiten.Die Koordinaten sind ID (wie im Schienenverkehr oder bei der Odometrie), 2D (polar, geografisch), 3D (räumlich), bei Zeitreihen auch 4D.

Die resultierende Position kann relativ sein oder absolut.

Geodätische Ortsbestimmung (Siehe Geodäsie und Vermessung): Die Ortsbestimmung im technischen Sinn der Geodäsie bedeutet die Einmessung der Position einzelner Vermessungspunkte und des Verlaufs von Grenzlinien oder Schichtlinien auf der Erd- oberfläche. Als globale Rechenfläche dient das Erdellipsoid, für lokale Aufgaben ein ebenes (2D-) Koordinatensystem. Die Punktbestimmung erfolgt überwiegend durch Entfemungs- und Winkelmessung, vereinzelt auch durch spezielle Standlinien. Dem- entsprechend wird durch mindestens n + 1 {\displaystyle n+1 } Distanzen die Eindeu- tigkeit von Vermessungen weiterer Punkte in einem Raum der Dimension n {\displaystyle n} bestimmt. Zusätzliche Messungen verbessern die numerische Genau- igkeit.

Koordinatensysteme: Bekannte Koordinatensysteme für Ortsdarstellungen lassen sich ineinander überführen. Vorherige Vereinfachungen bei Projektionen oder Idealisierun- gen liefern Fehler bei solchen Transformationen.

Planare Koordinaten (2D): Üblich ist die Verwendung von planaren mathematischen Koordinatensystemen mit einheitlichem Bezugspunkt: Kartesische Koordinaten für ebene Flächen und abgeleitete, meist verschobene, Gitternetze, Ebene Kugelkoordina- ten für die Erdoberfläche und abgeleitete, auch projizierte Gittemetze.Für einen Punkt in einem zweidimensionalen n = 2 {\displaystyle n=2} Koordinatennetz werden min- destens drei Bestimmungsgleichungen benötigt.

Kubische Koordinaten (3D): Eine vollständige Beschreibung eines Punktes im Raum wird durch eine dreidimensionale Koordinatenangabe mit einem Radius (oder der Hö- he), der Breite (Latitude) und der Länge (Longitude) erreicht. Für einen Punkt in einem dreidimensionalen Koordinatennetz werden mindestens vier Bestimmungsgleichungen benötigt. Nicht üblich ist die technische Verwendung planarer Koordinatensysteme auf unregelmäßig gekrümmten Flächen. Dann wird zur Vereinfachung eine Approximation für eine Ebene oder Kugel verwendet.

Dreidimensionale Ortsangabe

-x , y , z {\displaystyle x,y,z} in einem (räumlichen) Koordinatensystem bezüglich ei- nes Nullpunktes (Maschinenraum)

-X , Y , Z {\displaystyle C,U,Z} im dreidimensionalen Koordinatensystem bezüglich des Erdzentrums (Satellitengeodäsie)

-Dasselbe für Himmelskörper im Sonnensystem (Himmelsmechanik, Astronomie) Po larkoordinaten :

-Richtung und Entfernung von einem Vermessungspunkt, einer Kirche usw.

-Kurs und Distanz vom/zum nächsten Hafen

-Polarer Abstand gibt lediglich die Distanz zum Bezugspunkt an, weist aber keine Rich- tung aus.

-Peilungen geben zwei Richtungen an, aber keine Distanz. Die wird über den Basisab- stand der Bezugspunkte ermittelt.

Geografische, natürliche Koordinaten:

-Geographische Breite und Länge, bezogen auf das System einer Landesvermessung („geodätisches Datum“ und Referenzei lipsoid)

-Dasselbe in einem globalen System (bezüglich des mittleren Erdellipsoids), WGS84 oder ITRF

-Astronomische Breite und Länge (Astrogeodäsie: Messung der Richtung des natürli- chen Lotes, d. h. bezüglich des Geoids)

Mentale Festlegung: Eine mentale Orientierung erfolgt andauernd - unbewusst, intuitiv oder ausdrücklich, ob zu Fuß oder in einem Fahrzeug.

-Position bezüglich eines bekannten Objektes, wie„3 Meter rechts vom Eingangstor“ -Lage bezüglich eines bekannten Objektes, wie„dem Eingangstor zugewandt“

-Position in einem Raster (geometrisch oder mental), wie„an der 3. Kreuzung links, 4. Haus rechts“

-Position im Raum, wie„100 Meter oberhalb (hangaufwärts) der Berghütte“

-Lage im Raum, wie„auf dem Rücken liegend, Kopf hangaufwärts, Füße zur Berghütte weisend“

-Lage gegenüber der Sonne (z. B.„Sonne im Rücken“)

-Bewegung neben einem Nachbarn (gleichauf)

-Zeitlich, wie„10 Minuten zum Strand“

Wichtige Messmethoden der Ortsbestimmung: Aus dem Vorstehenden ergibt sich von selbst die Art der in Frage kommenden Messungen. Ortsangabe in relativen Koordinaten: Relative Koordinaten werden auf eingegrenzten Flächen und in Räumen verwendet. Dort werden ein oder mehrere Bezugspunkte will- kürlich gewählt. Einzelne bekannte Punkte, Linien, Flächen oder Räume beschreiben auch ohne exakte Koordinatenangabe ein Bezugssystem.

Ortsbestimmung mit Indexpunkten: In der Transportlogistik ist es häufig hinreichend, eine Passage an einem Ort vorbei zu registrieren. Dann ist die Identität des Objekts zu- sammen mit der Zeitinformation der Passage ein Gültigkeitsdatum zu der bereits be- kannten Ortsinformation des Indexpunkts. Das gilt entsprechend für das Überqueren von Linien, für das Befahren einer Fläche oder für den Aufenthalt in einem Raum.

Standlinien als Bezugssystem und Messverfahren: In den meisten Systemen werden mehrere Messverfahren benutzt und deren Ergebnisse kombiniert. Die folgenden Nen- nungen beschreiben allein keine vollständigen Messverfahren.

-Durch Geradenschnitt (Kreuzpeilung, Schnitt zweier Baulinien oder Grenzen, Aligne- ment)

-Rückwärtsschn itt

-Vorwärtsschnitt

-Durch Schnitt zweier Kreise (Bogenschnitt, Höhenwinkelmessung, örtliche Einmes- sung durch zwei oder mehr Sperrmaße)

-Durch Kombination von Gerade und Kreis (mit und ohne Höhendifferenz), Flughafen- Radar

-Im Hyperbelverfahren (Funknavigation, beispielsweise LORAN-C oder zwei Lauf- zeitmessungen)

-Als Kugelschnitt oder Hyperboloide (GPS und DGPS)

Entfemungs-, Winkel- und Höhenmessung: Generell werden alle bekannten Modelle der Messtechnik verwendet. Wegen der großen Distanzen und der Auswirkung kleiner Winkelfehler wird vorzugsweise mit optischen und quasi-optischen (Funk-) Messme- thoden für Längen und Winkel sowie mit verschiedenen Zeitmessverfahren für Zeitdif- ferenzen und Laufzeitdifferenzen gearbeitet. Zusätzlich werden für die Höhenmessung barometrische Modelle und für die Nordorientierung dynamisch gravimetrische und magnetische Modelle verwendet.

Beispiele für verwendete Messverfahren sind für die

-Entfernungsmessung: Maßstab, Messrad, Maßband, optische Entfernungsmessung (Scherenfernrohr, Skala eines Gefällemessers, Distanzfäden im Theodolit), EDM (La- ser, Infrarot) und Laufzeitmessung

-Winkelmessung: Winkelmesser (Transporteur) oder Dreieck (3:4:5 = 30°/90°), Sex- tant, Peilscheibe und Diopter, Kartometrie, Messtisch, Theodolit und Tachymeter -Richtungsmessung: Kompass oder Kreiselkompass, mit Funkpeilung, bezüglich Son- nenstand (Auf-, Untergang, Sonnenuhr) oder Polarstem, mit orientiertem Theodolit („Richtungswinkel“, bei astronomischer Orientierung Azimut)

-Höhenmessung: Barometrisch (Altimeter, Siedethermometer), Nivellement (horizonta- le Visuren), trigonometrische Höhenmessung (Distanz und Höhenwinkel), in der Luft- fahrt Funkhöhenmesser und Doppler-Radar, Satelliten-Altimetrie

-Drehratenmessung: Pendel, Stimmgabel, Kreiselinstrument

Astronomische, Funk- und Satellitenortung

-Astronavigation mit Sextanten (wie Mittagshöhe der Sonne, Standlinien mit Stempaa- ren)

-Astronomische Längen- und Breitenbestimmung oder von Längendifferenzen und Lo- tabweichungen durch Winkelmessung zu Gestirnen

-mit transportablen Instrumenten: mit Theodolit (Sterneck- oder Embacher-Methode), mit Ni2- und anderen kleinen Astrolabien oder mit Zenitkameras— *· siehe auch Astrogeodäsie

-mit fest aufgestellten Instrumenten: Universal-, Meridian- bzw. Passageninstrument, Zenitteleskop oder PZT, Radioteleskop ® siehe Astrometrie und VLBI

-Sichtnavigation - durch Augenschein oder mit Karten-Gelände-Vergleich, Sichtflug -Koppelnavigation

-Terrestrische Navigation - durch Einmessung von Fixpunkten, Landmarken usw. -Funknavigation (Funkfeuer NDB, VOR oder HiFix, Langstreckennavigation mit LORAN, Decca, Omega usw.) ® siehe Funkfeuer und Flyperbelnavigation

-Satellitenortung/Satellitennavigation: GPS (Global Positioning System) und das russi- sche GLONASS, künftiges Galileo-System, SLR (SatellitenLaser), Satellitenaltimetrie, Satellitentriangulation.

Ortsbestimmung beim natürlichen Hören und beim Stereohören: Die Bestimmung der Richtung eines gehörten Objekts nennt man in Fachkreisen Lokalisation. Wir lokalisie- ren durch natürliches Hören die Schallquelle und bei der Wiedergabe der Lautsprecher- stereofonie lokalisieren wir die Phantomschallquelle, was mit Richtungslokalisation be- zeichnet wird. Diese gehörte Lokalisation ist keine Ortung in der üblichen Begrifflich- keit.

Geodätische Messmethoden

-Lateration, Abstand des Zielobjekts ist durch optische Messung über eine Laufzeit er- fasst und Distanznetze (Trilateration)

-Angulation: Position des Zielobjekts ist durch die Winkel mindestens zweier Fixpunk- te zum Objekt gegeben und Vermessungsnetze (Triangulation)

-Polarmethode (bis etwa 500 m)

-Polygonzug (je Messpunkt etwa 100 m)

-Methode der freien Stationierung (mittels identischer, 2- bis 3-fach eingemessener Punkte)

Sonstige Verfahren

-Terrestrische Navigation, nautische Verfahren: Fahrtmessung (Loggen) und Koppelna- vigation (Addition von Wegstücken), Lotung (Tiefenmessung) in Küstennähe, kontrol- lierte Steuerung im Fahrwasser (mit Baken, Tonnen, Leuchttürme), Meilenlaufen (Test- strecken), Deckpeilung vor der Hafeneinfahrt

-Straßen- und Flugnavigation (siehe dort), Ortung entlang Luftstraßen und Flugrouten, Odometer und digitale Straßenkarten, DGPS, Radar- und Inertialnavigation -Schätzung: Auch ohne Instrumente sind relative Ortsbestimmungen auf 1-10 Prozent der zurückgelegten Distanz möglich: Winkel mit Daumensprung oder Handspanne, Ent- fernung durch Abschreiten oder Fuß (Schuhgröße), Schätzung von Intervallen, Schät- zung der Gehzeit usw. Die Höhenschätzung erfordert allerdings weitere Hilfsmaße (Hauskante, Horizont oder Wasserflasche, Lotschnur, Schätzung der Straßensteigung usw.).

-Meteorologische Navigation

-Echoortung

-In der Geophysik: Felsmutung, die Ortsfeststellung von Gestein im Gegensatz zur La- ge, dem Verlauf der Gesteinseinheit

Für industriellen Bedarf und in Dienstleistungsprozessen werden kompakte Lösungen benötigt, die auch unter Sichtbeschränkungen hinreichende Ergebnisse liefern. Dazu gehören Systeme wie radiofrequente Identifizierung (RFID) an Indexpunkten, radio- frequente Bestimmung des Ortes im Sichtabstand.

Funketiketten (RFID): Im Zusammenhang mit dem Einsatz von passiver RFID-Technik wird oft über die Möglichkeit geschrieben, sie sei zur Ortsbestimmung oder Lokalisie- rung geeignet (siehe Suchmaschinen-Ergebnisse der Wortkombination„RFID + Orts- bestimmung“). Insoweit würde jedes Lesegerät eine Ortung von RFID-Transpondern ermöglichen. Grundsätzlich ist es jedoch - wie der Name Radio Frequency Identifica- tion besagt - nur ein Mittel zur Identifizierung durch Radiosignale. Eine Lokalisierung kann daher nur mittelbar durch die momentanen Ort eines RFID-Lesegeräts erfolgen, und auch da nur im Nahbereich einiger Meter.

Technisch wird dies bei kurzer Reichweite des Signals und hinreichender Trennschärfe einer Pulklesung von RFID-Tags als Engpass-Lokalisierung oder i-Punkt-Lokalisierung (engl choke point locating) bezeichnet. Ohne diese kurzzeitige Koinzidenz von Lesege- rät und RFID-Tag (Kennzeichen) wären präzise Aussagen über Identität, Zeit und Ort nicht möglich. Dynamische Lösungen (RTLS): Durch Weiterentwicklung der RFID-Technik zu RTLS Real-Time Locating System wären genäherte Ortungen möglich, wenn eine Distanz- schätzung zwischen Sender und Empfänger(n) gelingt. Infrage kommen Methoden der Pegelmessung, der Fehlerbewertung oder der Laufzeitmessung. Die technische An- wendbarkeit wird aber durch den Störpegel anderer Sender, Mehrwegeausbreitung, Mehrfachreflexionen und die Dämpfung beim Durchgang durch dielektrische Massen stark eingeschränkt. Betriebliche Anwendungen sind bisher nur vereinzelt anzutreffen, andere Interessenlagen noch gering.

Personenortungsanlagen: Für Personen gibt es aktive RFID -Transponder (Sendeanla- gen, zumeist in Kleidung getragen oder eingenäht). In Verbindung mit der Infrastruktur einer Personenortungsanlage dienen sie dem Schutz gefährdeter Personen oder der Ver- besserung von Prozessen, die von Personen ausgeführt werden.

Eine zeitweise Zuordnung eines gekennzeichneten Gegenstandes zu einer Person loka- lisiert mangels Identifizierung der Person ebendiese noch nicht. Gegenteilige Beschrei- bungen gehören in die Kategorien der laienhaften Falschaussagen oder der intentionel- len Falschdeutung. [3] Allein schon das Herstellen eines Zusammenhangs der Begriffe RFID und Ortsbestimmung ändert die durch die Physik bestimmten technischen Mög- lichkeiten nicht.[4] Hingegen wird der RFID-Technik eine Brisanz zugedeutet, die al- lein durch deren technische Leistung nicht begründet wird.

Radioffequente aktive Sender lösen beispielsweise bei Verlassen von Pflegeeinrichtun- gen durch den Betreuten ein Signal aus. Es ist nicht bei allen Überwachungstechniken möglich, Sender unter die Haut einzubauen, da das Sendesignal teilweise durch den Wassergehalt der Haut geschwächt wird. Eine passive Personenüberwachung durch subkutan implantierte RFID-Chips ist jedoch möglich.

Zulässigkeit: Sämtliche Lösungen dieser Art bedürfen der Zustimmung der Beteiligten oder Betroffenen oder ihrer gesetzlichen Vertreter. Umstritten ist die Zulässigkeit der Ortung von Personen, die unter curativer oder rechtlicher Betreuung stehen. Das Abwä- gen von Schutz- und Kontrollinteressen gegenüber dem informationellen Selbstbe- stimmungsrecht ist am einfachsten durch willentliche Zustimmung des Trägers zu si- chern. In allen anderen Fällen soll eine neutrale oder eine autorisierte Instanz die ent- sprechenden Entscheidungen fällen.

Die Auffassung der Vormundschaftsgerichte zur Zulässigkeit und Genehmigungsbe- dürftigkeit als freiheitsentziehende Maßnahme (§ 1906 BGB) ist unterschiedlich. Bejaht wurde diese Frage durch AG Hannover, BtPrax 1992, 1 13; AG Bielefeld, BtPrax 1996, 232; AG Stuttgart-Bad Cannstatt FamRZ 1997, 704. In einer neuen Entscheidung spricht sich das OLG Brandenburg gegen die Genehmigungspflicht des Senderchips als solchen aus: Genehmigungspflichtig sei es, wenn klar sei, dass tatsächlich freiheitsbe- schränkende Maßnahmen in der Einrichtung getroffen werden (OLG Brandenburg FamRZ 2006, 1481).

Die offene politische Diskussion zu diesem Thema hinkt in Deutschland weit hinter dem gesellschaftlichen Diskurs in Nachbarländern hinterher. In Österreich ist die Ver- wendung von kleinen Transpondern an allen Liftanlagen üblich. In den USA wird zu- nehmend jeder Patient im Krankenhaus mit einem Transponder gekennzeichnet. Die Vorteile zur Sicherheit ftir Betrieb, Behandlung und Rettung sind vielfältig.

Geräteortungsanlagen: Es gibt Transponder (Sendeanlagen, zumeist versteckt ange- bracht) für Geräte. Diese funktionieren in Verbindung mit der Infrastruktur einer Gerä- teortungsanlage für den Diebstahlschutz.

Die Sender lösen bei Entfernen beispielsweise von Geräten aus dem zulässigen Ver- wendungsbereich durch missbräuchlichen Transport (Diebstahl, unerlaubte Leihe, un- bezahlter Kauf, sachfremde Verbringung) ein Signal aus. Es ist unmöglich, Sender un- ter Metalloberflächen einzubauen, da das Sendesignal durch die Metallschicht ge- schwächt wird. Algorithmen zur Ortsbestimmung:

-Proximity Sensing: Das Verfahren beruht auf der einfachen Idee mehrerer verteilter Empfänger, deren Positionen bekannt sind. Die Position des zu ortenden Objekts ist dann annähernd dieselbe wie die Koordinaten der nächststehenden Empfangsantenne. Dieses Verfahren bildet die Grundlage der Positionierung aller zellenbasierten Systeme, die standortbezogene Dienste anbieten, wie z. B. Mobilfunk, GSM und UMTS.

-(Zirkuläre/hyperbolische) Trilateration: Approximation der Koordinaten des Zielob- jekts durch Vergleich der Signallaufzeiten beim Endgerät, gegeben mehrere Sender. Im 2D-Raum benötigt man zur eindeutigen Positionsbestimmung drei Signalgeber, im 3D- Raum sind mindestens vier Sender nötig, um die Position exakt berechnen zu können. Dieses Verfahren wird von Satellitennavigationssystemen wie GPS und Galileo einge- setzt.

-Dead Reckoning (Koppelnavigation): Sind Anfangskoordinaten des eigenen Fahrzeugs (Schiff, Flugzeug) bekannt, kann mit Geschwindigkeit und Bewegungsrichtung (Kurs) die Position zu jedem Zeitpunkt ermittelt werden. Verwendung in Systemen mit mobi- len Endgeräten, die permanent ihre Position ändern (Flugüberwachung, OBU2, GIS- Messfahrzeuge)

-Komplexe geodätische Software:

-Netzausgleichung, Fehlerfortpflanzung, Absteckung, GIS-Module

-Analytische Fotogrammetrie, Bündelblockausgleichung

-Überbestimmung und Kombination der obigen Methoden erlaubt Aussagen zu Genau- igkeit und Zuverlässigkeit (siehe auch Netz (Geodäsie))

92. Kompass

Weitere Ausführungsformen für die Erfindung:

Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element für ei- nen Kompass mit Ortungs- und/oder Ortsbestimmungsfunktion. Das elektronisches Element (E) ist erfindungsgemäß vorgesehen vorzugsweise als Sensorchip in einem elektronischen Kompass. Kompass - der Buchstabe O steht in den meisten romanischen Sprachen für„Westen“ (z. B. spanisch oeste, italienisch ovest, französisch ouest) Der Kompass (von italienisch compasso„Zirkel, Magnetnadel“, abgeleitet von compassare„abschreiten“, [1] Plural: Kompasse[2]) ist ein Instrument zur Bestimmung einer fest vorgegebenen Richtung, z. B. Himmelsrichtung, Navigations-Kurs, Peilrichtung. Ursprünglich ergänzte der Kompass in der Schifffahrt andere Methoden der Navigation, zum Beispiel anhand von Sonne, Sternen und Landmarken, Strömungen, Wellengang und Wassertiefe. Die älteste Ausführung des Kompasses ist die Kimme, die das Anpeilen des Polarsterns bei klarer Nacht erlaubt.

Das klassische Gerät ist der Magnetkompass, der anhand des Erdmagnetfelds die Be- stimmung der magnetischen Nordrichtung und daraus aller anderen Himmelsrichtungen erlaubt. Andere Ausführungen sind elektronische Kompasse auf Basis von Hall- Sensoren oder Fluxgate-Magnetometem; mit Letzteren kann Betrag und Richtung des Erdmagnetfeldes auf ein 1/100.000 des Absolutwerts genau bestimmt werden.

Ganz ohne Ausnutzung des Erdmagnetfeldes arbeiten Kreiselkompasse, deren Wir- kungsweise auf der Erdrotation beruht. Die Richtungsmessung erfolgt bezüglich der geografischen Nord-Süd-Richtung anstatt zu den Magnetpolen. Es gibt auch Kreiselin- strumente ohne Richtungsbezug (freie Kreisel wie den Kurskreisel), die allerdings peri- odisch nachgestellt werden müssen. Ebenfalls ohne Magnetfeld kommen Sonnenkom- passe aus.

Ein Kompass mit Peilvorrichtung wird auch Bussole genannt. Meist wird dieser Begriff in der Vermessungstechnik für Präzisions-Peilkompasse verwendet, vor allem in Öster- reich und Italien wird aber auch der einfache Wander- oder Marschkompass so genannt. Die 12 chinesischen Erdzweige (innerer Kreis) und 24 genauere Himmelsrichtungen (äußerer Kreis). Norden ist unten, Süden oben; Westen rechts, Osten links (traditionelle Orientierung). Wenn man mit dem Mauszeiger auf die Symbole/Felder geht, werden weitere Informationen angezeigt. Die Erkenntnis, dass sich Splitter von Magneteisenstein in die Nord-Süd-Richtung dre- hen, war in Europa seit der griechischen Antike und in China seit der Zeit der Streiten- den Reiche, zwischen 475 v. Chr. und 221 v. Chr. bekannt.

Die seriösen Studien zum Ursprung des Kompasses von J. Klaproth und L. de Saussure führen zu dem Ergebnis, dass die chinesischen Navigatoren den nassen Kompass bereits um die Jahrtausendwende kannten. Die Chinesen benutzten seit dem 11. Jahrhundert eine schwimmende, nasse Kompassnadel, die Südweiser genannt wurde. Tatsächlich ist auf dem chinesischen Kompass die Südrichtung als Hauptrichtung markiert. Im Laufe der Zeit entwickelten sich daraus spezielle Kompassformen mit einer Einteilung in 24, 32, 48 oder 64 Striche bzw. Himmelsrichtungen (siehe Erdzweige). Ende des 11. Jahrhunderts empfahl Shen Kuo (1031-1095) in seinem Hauptwerk einen Kompass mit Einteilung in 24 Richtungen; kurz nach seinem Tod waren solche Kompasse tat- sächlich in Gebrauch.

Die Matrosen des östlichen Mittelmeeres haben spätestens zur Zeit der Kreuzzüge vom nassen Kompass erfahren und ihn optimiert. Da er seinem Besitzer jedoch einerseits große Vorteile gegenüber der Konkurrenz brachte und andererseits quasi mit verbote- nen magischen Kräften funktionierte, wurde dieses Wissen möglichst geheim gehalten. In Europa beschrieb der englische Gelehrte Alexander Neckam 1187 den nassen Kom- pass als eine magnetisierte schwimmende Nadel, die unter Seeleuten in Gebrauch war. Auch in einer kirchenkritischen Schrift des französischen Mönches Hugues de Bercy wurde die schwimmende Magnetnadel um 1190 (vielleicht auch bereits vor 1187) er- wähnt.

Auf der Arabischen Halbinsel wurde der Kompass wahrscheinlich nicht erfunden, da die arabischen Seeleute um die Jahrtausendwende über gute astronomische Kenntnisse verfugten und dank der gleichmäßigen Winde in ihrer Weltregion gut navigieren konn- ten. Im arabischen Raum lässt sich der nasse Kompass etwa einhundert Jahre nach Alexander Neckams Erwähnung nachweisen. 1932 veröffentlichte Edmund Oskar von Lippmann eine Studie, in der er versuchte, die angebliche Überlegenheit der„nordischen Rasse“ zu beweisen, indem er Argumente für eine hypothetische, unabhängige Erfindung des Kompasses in Europa beizubringen suchte, ohne auf alle anderen früheren Untersuchungen einzugehen. Diese falsche Theorie wird heute teilweise immer noch vertreten.

Die erste schriftliche Erwähnung einer trocken auf einem Stift spielenden Magnetnadel findet sich im Epistola de magnete von 1269, geschrieben von Petrus Peregrinus de Ma- ricourt, womit der noch heute benutzte trockene Kompass erfunden war. Ein Seefahrer namens Flavio Gioia, dessen Existenz nicht gesichert ist, wird am Hafen von Amalfi als angeblicher„Erfinder des Kompasses“ mit einem Denkmal geehrt. Die Legende um Flavio Gioia beruht wahrscheinlich auf einem Übersetzungsfehler.

Der trockene Kompass war sehr viel genauer als die instabile schwimmende Nadel und ermöglichte so eine präzisere Navigation. Im späten 13. Jahrhundert kombinierten die Seefahrer des Mittelmeers als erste die Magnetnadel mit der Windrose. Um das Jahr 1400 bauten europäische Seefahrer die trockene Kompassnadel und Windrose in ein fe- stes Gehäuse ein, um es fest auf ihren Schiffen zu stationieren. Leonardo da Vinci schlug als erster vor, den Kompasskasten in einer kardanischen Aufhängung zu platzie- ren, um so die Genauigkeit weiter zu steigern. Ab 1534 wurde seine Idee verwirklicht und setzte sich während des 16. Jahrhunderts in ganz Europa durch, wodurch europäi- sche Segelschiffe über die fortschrittlichste und exakteste Kompasstechnik ihrer Zeit verfugten. Nach China kam der trockene Kompass etwa um das Jahr 1600 über Japan, das ihn von Spaniern und Portugiesen übernommen hatte.

Der Kompass wurde auch im Bergbau von Markscheidern als Vermessungsinstrument eingesetzt. In der norditalienischen Bergstadt Massa sind Kompasse zur Bestimmung der Vortriebsrichtung und Vermeidung von Durchschlägen zwischen Grubenbetrieben bereits im 13. und 14. Jahrhundert belegt, und im Tiroler Bergbau war er in der zweiten Hälfte des 15. Jahrhunderts selbstverständlich. Das Bergbüchlein des deutschen Montanwissenschaftlers Ulrich Rülein von Calw (1505) kann als eine erste theoretische Abhandlung über den untertägigen Einsatz des Kompasses gelten.

Der Magnetkompass besteht aus einem drehbaren Zeiger aus ferromagnetischem Mate- rial und einem Gehäuse, in dem dieser Zeiger möglichst reibungsarm gelagert ist. Als Träger der Magnetnadel werden dazu z. B. abriebsichere Edelsteine wie Rubin oder Sa- phir verwendet. Am Gehäuse oder dem Zeiger ist in der Regel eine Winkelskala ange- bracht. Der Zeiger selbst kann die traditionelle Form einer Nadel haben. In einigen neueren Kompassen ist eine komplette Scheibe zu finden und in Schiffskompassen meist eine Kugel.

Der Zeiger richtet sich, wenn er nach allen Richtungen frei beweglich ist, in Richtung des Erdmagnetfelds aus. Dessen Feldlinien verlaufen in weiten Bereichen der Erde und insbesondere in Mitteleuropa ungefähr in geographischer Nord-Süd-Richtung. Da die Abweichung sehr genau bekannt ist und teilweise in topografischen Karten verzeichnet ist, kann aus der Richtung des Zeigers relativ präzise auf die geografische Nordrichtung geschlossen werden.

Kompasskapseln sind in der Regel mit einer Flüssigkeit gefüllt, um die Bewegung der Nadel zu dämpfen. Dadurch vibriert sie bei Erschütterungen weniger, was das Ablesen erleichtert und Ablesefehler verringert, ohne dass dadurch das rasche Einschwingen er- schwert wird. Die Flüssigkeit besteht oft aus einem leichten Öl oder einem Lösungsmit- tel, das nicht zum Rosten der Nadel führt und unter extremen Bedingungen nicht stockt. Trotz der Existenz von Positionsbestimmungssystem wie GPS oder GLONASS wird der Magnetkompass nach wie vor oft genutzt.

Navigationssysteme können die Navigation anhand der Sterne mit Karte und Kompass sinnvoll ergänzen, jedoch nicht vollständig ersetzen. Neben der Abhängigkeit von einer Energieversorgung und Elektronik ist die Kurswinkelbestimmung mit einem Kompass einfacher und genauer durchzuführen als mit einem Navigationsgerät, sofern dieses über keinen elektronischen magnetischen Kompass verfügt. Darüber hinaus erzwingt ein Kompass die ständige Auseinandersetzung mit der realen Situation, während das Navigationsgerät leicht dazu verfuhren kann, sich blindlings auf die Satellitentechnik zu verlassen. Ein reines GPS-Gerät kann stationär keine Richtung bestimmen, dazu muss es bewegt werden.

Unter Wasser ist der Kompass, kombiniert mit der Zeit- und Geschwindigkeitsmessung, oft die einzige Möglichkeit der geografischen Positionsbestimmung. U-Boote und Tau- cher können ab einer gewissen Tauchtiefe weder die Sonne oder Sterne beobachten noch ein Navigationssystem zur Navigation nutzen. Sowohl das Licht der Sonne oder Sterne als auch die Hochfrequenzsignale der Navigationssatelliten werden vom Wasser stark absorbiert. Das Erdmagnetfeld hingegen durchdringt auch das Wasser. Auf größe- ren U-Booten wird die Navigation mit dem Magnet-Kompass meist durch Kreiselkom- passe ergänzt.

Für die Navigation mit Karte und Kompass wird heute meist ein Plattenkompass, auch Kartenkompass genannt, verwendet, dessen Gehäuse sich in einer durchsichtigen Ac- rylglas-Platte befindet oder ein Kartenwinkelmesser mit Planzeiger. Diese Platte er- leichtert die Kartenarbeit und macht es einfach, die Nord-Süd-Linien des Kompasses mit dem Gitternetz einer topografischen Landkarte in Übereinstimmung zu bringen. Ein Einnorden der Karte ist nicht notwendig.

Immer wieder fuhrt die Frage zu Verwirrung, ob im Norden der Erde der magnetische Nord- oder der magnetische Südpol liege. Ein Blick in die Geschichte hilft, den Sach- verhalt zu verstehen. Als die magnetische Eigenschaft der Magnetit-Nadel entdeckt wurde, nannte man das Ende der Nadel, das nach Norden zeigte, naheliegenderweise den Nordpol der Nadel. Erst sehr viel später erkannte man den Grund des Effekts und dass sich bei Magneten immer gegensätzliche Pole anziehen. Da war die Bezeichnung der Polarität aber bereits definiert. Der magnetische Pol der Nordhalbkugel hat also eine magnetische Polung die dem Nordpol der Kompassnadel entgegengesetzt ist. Bleibt man bei der Terminologie, dass die nordweisende Spitze der Kompassnadel der magne- tische Nordpol sei - was bis heute Bestand hat so ist der Magnetpol im geographi- schen Norden der Erde zwangsläufig ein magnetischer Südpol.

Diese physikalisch korrekte Feststellung hat im Alltag geringe Bedeutung. Im allge- meinem Sprachgebrauch wird die Richtung zum Magnetpol der Nordhalbkugel "ma- gnetisch Nord" bzw. der Magnetpol selbst auch magnetischer Nordpol genannt. Zur Vermeidung dieser sprachlichen Ambivalenz werden in jüngerer Zeit auch die Termini „arktischer Magnetpol“ und„antarktischer Magnetpol“ verwendet.

Grundsätzlich werden Kompassrosen in gleich große Kreissektoren geteilt. Bei Grad sind das 360, bei Neugrad 400 und bei Strich bzw. Mil 6400 Teilbereiche, wobei meist nur die Hunderter eingezeichnet werden (Marschzahl). Der nautische Strich teilt den Kreis in 32 Segmente, wird aber heute in der Navigation nur noch selten benutzt, etwa bei der Vierstrichpeilung. Neben der Gradeinteilung gibt es z. B. die Windrose (auch Kompassrose) zum Anzeigen der Himmelsrichtung auf dem Kompass (Siehe auch: De- klination in der Geographie)

Da die Verbindungslinie der magnetischen Pole gegenüber der Erdachse um etwa 1 1,5° geneigt ist, liegen die magnetischen Pole derzeit etwa 2000 km von den geographischen Polen entfernt. Die magnetischen Pole verändern ihre Lage im Verlauf der Zeit, weil der Erdmagnetismus auf veränderlichen Strömungen im metallischen Erdkern beruht. Zusätzlich wird der Verlauf der magnetischen Feldlinien von den örtlichen geologi- schen Gegebenheiten (z. B. eisenhaltigem Gestein) beeinflusst. Diese beiden Faktoren bewirken, dass die Abweichung der Kompassnadel von der geografischen Nordrichtung an jedem Ort der Erde unterschiedlich ist.

Diese Abweichung wird Ortsmissweisung oder Deklination genannt. Es ist nicht sicher, wer diese zuerst erkannte. Jedoch gilt als gesichert, dass Georg von Peuerbach der erste war, der über die Missweisung schrieb. Der älteste erhaltene Kompass, bei dem die Missweisung eingezeichnet ist, stammt von Peuerbach. Ein Kreiselkompass zeigt keine Deklination, da er unabhängig vom Erdmagnetfeld arbeitet. Deviation (Siehe auch Deviation in der Navigation) : Als Deviation werden Abwei- chungen bezeichnet, die durch magnetische Felder in der Nähe des Kompasses hervor- gerufen werden können. Solche Felder werden durch magnetische oder magnetisierbare Gegenstände und Geräte sowie durch fließenden Wechsel- oder Gleichstrom erzeugt. Eine mögliche Gegenmaßnahme besteht darin, einen Mutterkompass an einer besser geeigneten Stelle als auf der Brücke oder im Cockpit des Schiffes oder Flugzeuges un- terzubringen. Ansonsten oder zusätzlich werden zur Kompensation größerer Abwei- chungen entweder Magnetnadeln an dafür vorgesehenen Stellen in das Kompassgehäu- se eingesetzt (z. B. Ludolph-Kompass) oder beweglich gelagerte Magnete im Kom- passgehäuse über Stellschrauben entsprechend justiert (z. B. Airpath -Kompass).

Um diese Kompensierung zu erreichen, wird das Fahrzeug (Schiff) langsam um die durch den Kompass führende Flochachse gedreht, die optische Peilung einer in ihrer geografischen Ausrichtung bekannten Linie beobachtet und mit der Kompassanzeige verglichen und die Abweichung notiert. Verbleibende Rest- und Anzeigefehler, die un- ter 5° liegen sollen, werden in eine Deviationstabelle eingetragen, von der zu jedem Kompasskurs die dazugehörige Korrektur abgelesen werden kann. Die Kompensation wird nach Werflaufenthalten oder bei voller Stahlladung wiederholt. In der allgemeinen Luftfahrt muss die Deviation nach bestimmten Veränderungen am Flugzeug oder in festgelegten Zeitabständen überprüft und der Kompass erneut kompensiert werden. Ent- sprechende Vorgaben finden sich beispielsweise in den Flug- und Betriebshandbüchem.

Inklination (Siehe auch Inklination / Magnetismus): Flüssigkeitskompasse funktionie- ren trotz starker Inklinationswinkel oder starker Krängung. Einzig das Ablesen kann er- schwert sein.Als Inklination wird der Winkel zwischen den Tangenten an die magneti- schen Feldlinien und der horizontalen Tangentialebene an die Erdoberfläche bezeichnet. In Mitteleuropa beträgt die Inklination etwa 66,5°. Mit anderen Worten, die Vertikal- komponente des Magnetfelds ist rund doppelt so groß wie die Horizontalkomponente. Da zur Bestimmung der Nordrichtung nur die horizontale Komponente der Magnetfeld- linien von Bedeutung ist, muss die Inklination bei der Konstruktion des Kompasses in- dividuell kompensiert werden. So wird bei einfachen Wanderkompassen z. B. einfach die Südhälfte der Nadel mit einem sogenannten Reiter beschwert. Ein solcher Kompass kann auf der Südhalbkugel nicht verwendet werden, da die Nadel schief hängt oder schlimmstenfalls den Boden des Kompassgehäuses berühren würde.

Um weltweit Kompasse verkaufen zu können, entwickelten die Hersteller die folgenden zwei Lösungen:

-Für günstigere Kompassmodelle sind viele Hersteller dazu übergegangen, die Welt in bis zu fünf Zonen einzuteilen und für jede Zone eigene Modellvarianten anzubieten. Die Varianten unterscheiden sich in ihren Nadelschwerpunkten, sodass sie in der jewei- ligen Zone ausbalanciert sind.

-Bei höherwertigen Modellen werden spezielle Nadelaufhängungen und -mechaniken verwendet, die den Kompass weltweit einsetzbar machen.

Beim magnetischen Schiffskompass ist die Skala mit der Gradeinteilung am Zeiger an- gebracht, der entweder kardanisch aufgehängt ist oder in einer Flüssigkeit schwimmt (Kugelkompass), sodass sie trotz der durch den Seegang verursachten Schiffsbewegun- gen immer waagerecht liegt. Die Kompassrose dreht sich dabei als Ganzes, die Rich- tung wird an einer fest mit dem Gehäuse verbundenen Markierung abgelesen. Im Ge- gensatz dazu ist bei Kompassen, die an Land verwendet werden, die Kompassrose am Gehäuse angebracht, und nur die Kompassnadel dreht sich. In Bezug auf das Erdma- gnetfeld dreht sich in beiden Fällen das Kompassgehäuse, und der Zeiger (Kompassna- del/-rose) bleibt an den magnetischen Feldlinien ausgerichtet.

Der Kompassdrehfehler: In der Luftfahrt zeigt der Magnetkompass aufgrund seiner Massenträgheit bei Beschleunigungen falsche Werte an. Dieser Effekt wird Beschleuni- gungsfehler genannt. Beim Kurvenflug tritt der Drehfehler auf. Beim Steig- oder Sink- flug gibt es solche Anzeigefehler hingegen nicht, entgegen der häufig gegenteiligen An- sicht. Der Beschleunigungsfehler entsteht dadurch, dass auch bei den in der Luftfahrt üblichen Kompassen der Schwerpunkt des drehbaren Teils tiefer liegt als dessen Auf- hängepunkt. Bei Beschleunigungen quer zur Magnetisierung (Ost -West-Richtung) kippt der Kompassmagnet derart, dass die vertikale Komponente des Erdmagnetfelds dessen Nordpol nach unten ziehen kann, was die Anzeige verfälscht. Der Drehfehler beruht auf der Schräglage des Kompasses in Kurven und tritt in Nord- Süd-Richtung auf. Auch hier wird der Kompassmagnet durch die vertikale Komponente des Erdmagnetfeldes verstellt. Eine Kurve ist daher auf nördlichen Kursen früher, auf südlichen später zu beenden, als der Kompass anzeigt. Dies gilt auf der Nordhalbkugel, auf der Südhalbkugel ist der Effekt entgegengesetzt. Heute werden im Motorflug Kur- ven allgemein nach dem drehfehlerfreien Kurskreisel geflogen, sodass der Kompass- drehfehler hier kaum noch von praktischer Bedeutung ist.

Es gibt beschleunigungs- und drehfehlerfreie Kompasse, beispielsweise Modelle der Schweizer Firma Bohli-Magnete oder der deutschen Firma Schanz Feinwerktechnik. Bohli- und Schanz-Kompass sind speziell für Segelflugzeuge entwickelt worden und dort insbesondere für den Einsatz im Wolkenflug. Diese Kompasse haben den Nachteil, dass sie von Hand der Querlage des Flugzeugs angepasst werden müssen. Da der Wol- kenflug heute im Segel flug- Wettbewerb verboten ist, sind sie heute auch in Segelflug- zeugen nur noch selten anzutreffen. Außerhalb der Segel fl ugszene ist diese Variante des Kompasses kaum bekannt.

Der Adrianowkompass (russisch KoMnac A^puaHoea) ist ein Militärkompass, der be- reits bei der zaristischen Armee verbreitet war. Eine erste Version wurde von dem Mili- tärvermesser Wladimir Adrianow 1907 entwickelt. Entsprechende Armbandkompasse wurden bei der Roten Armee und der Sowjetarmee getragen. Bei dem ikonographi sehen Bild Auf dem Berliner Reichstag, 2. Mai 1945 fiel bei dem flaggenhissenden Soldaten auf, dass er zwei Armbanduhren zu tragen schien, eine davon wurde vor der Veröffent- lichung wegretuschiert. Die weitverbreitete Deutung als Plünderer liegt zwar aus der Entfernung nahe, ist aufgrund der möglichen Verwechslung mit dem Armbandkompass nicht zwingend.

93. Kreiselkompass

Es folgen weitere Ausführungsformen der Erfindung: Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element mit Ortungs- und/oder Ortsbestim- mungsfiinktion. Das Elektronisches Element (E) ist erfindungsgemäß vorgesehen, vor- zugsweise als Sensorchip in einem elektronischen Kreiselkompass

Der Kreiselkompass ist ein Kompass, der sich parallel zur Rotationsachse der Erde ori- entiert und so die Nord-Südrichtung anzeigt. Durch seine horizontale Aufhängung ist er kein freier, sondern ein gefesselter Kreisel. Als solcher wirkt er meridiansuchend, benö- tigt aber zwei bis vier Stunden für die Ausrichtung (Einschwingdauer). Da ein kurs- und geschwindigkeitsabhängiger Fahrtfehler bei der Kursanzeige zu berücksichtigen ist, werden Kreiselkompasse vor allem auf langsamfahrenden Schiffen eingesetzt. Sie ar- beiten unabhängig vom Erdmagnetfeld und zeigen daher nicht die magnetische, sondern die wahre (astronomische) Nordrichtung an.

Der bei Kleinflugzeugen oft eingesetzte Kurskreisel ist hingegen ein freier Kreisel, nur wird er oft mit dem Kreiselkompass verwechselt. Mit freien Kreiseln arbeiten auch die modernen inertialen oder Trägheitsnavigationssysteme. Sie liefern jedoch neben der Richtung auch eine genaue Positionsbestimmung, indem die Beschleunigungen des Flugzeugs dreidimensional integriert werden.

Der Kreiselkompass besteht aus einem schnell rotierenden Kreisel, gewöhnlich in einer Kardanischen Aufhängung. Zusätzlich ist er so angeordnet, dass ein Drehmoment auf ihn einwirkt, solange seine Drehrichtung nicht nach Norden weist. Weist die Drehrich- tung nach Norden und somit die Drehachse in Rotationsrichtung der Erde, wird das Drehmoment (das Kreuzprodukt aus dem Radius senkrecht zur Drehrichtung und der Kraft durch die Beschleunigung in Richtung der Erddrehung) null. Im nebenan darge- stellten Versuchsaufbau ist er als Pendel aufgehängt. Nur parallel zur Erdoberfläche kann er sich frei ausrichten.

Eine Schemabeispiel zeigt, vom Südpol aus betrachtet, einen Kreiselkompass, der sich entlang des Äquators bewegt. Zunächst steht seine Rotationsachse s-n parallel zur Erd- oberfläche. Gemäß der Drehimpulserhaltung behält die Achse ihre Richtung auch bei Bewegung zur zweiten eingezeichneten Position bei. Aufgrund der besonderen Aufhän- gung kann sich der Kreisel nur in zwei Ebenen kräftefrei ausrichten. Auf die drite Richtung wirkt die Erdanziehung. Sie versucht, die Achse entlang der mit D bezeichn- ten Pfeile zu kippen. Das von ihr erzeugte Drehmoment kippt die Rotationsachse aus der Zeichenebene heraus und lässt den Kreisel präzedieren. Durch Dämpfung der Dreh- bewegung um den Punkt A kommt der Kreisel zur Ruhe, wenn die angreifende Kraft verschwindet. Das ist dann der Fall, wenn die Kreiselachse in die Nord-Südrichtung zeigt („meridiansuchender Kreisel“).

Bewegungen des Kreisels entlang eines Meridians verursachen Missweisungen. Dann zeigt der Kreisel nicht mehr genau nach Norden, sondern in die Richtung, die sich aus der Summe der von der geographischen Breite (cos f) abhängigen Geschwindigkeit an der Erdoberfläche und der, mit welcher der Kreisel bewegt wird, ergibt. Eine Ge- schwindigkeit entlang des Meridians von 20 km/h verursacht die in der Navigation als Fahrtfehler bezeichnete Ablenkung von lediglich 0,5°. Bei 150 km/h steigt er auf 5°. Bewegt sich der Kreisel mit der Rotationsgeschwindigkeit der Erde am Äquator von 1600 km/h entlang eines Meridians, beträgt sie 45°.

In der Nähe der Pole versagt der Kreiselkompass, weil die Drehachse der Erde fast senkrecht aus der Oberfläche hinaus zeigt und das auf die Horizontalebene projizierte Drehmoment sehr klein wird. Diese Probleme führten zur Entwicklung von Drei- Kreisel-Kompassen.

Ein Kreiselkompass ist empfindlich gegenüber Beschleunigungen (z. B. wenn ein Schiff Fahrt aufnimmt oder seinen Kurs ändert). Die dadurch entstehenden Anzeigefeh- ler können durch die sogenannte Schuler-Abstimmung weitgehend beseitigt werden (Näheres siehe Schüler-Periode). Die Untersuchungen dazu gehen auf Maximilian Schüler zurück. Für sich schnell ändernde Beschleunigungen, wie sie beim Stampfen oder Schlingern eines Schiffes auftreten, sind andere Abstimmungen sinnvoll.

Ein moderner Kreiselkompass erreicht eine dynamische Ausrichtgenauigkeit von weni- ger als 0,5°, besser als ein optischer Faserkreisel. Leon Foucault experimentierte 1851 mit einem von Johann Gottlieb Friedrich von Bohnenberger 1810 entwickelten und 2004 von Alfons Renz wiedergefundenen Gyroskop und entdeckte dessen Bestreben, sich parallel zur Erdachse auszurichten, wenn die Achse in die Waagerechte gezwungen wurde. Er sprach in diesem Zusammenhang von einem Meridiankreisel. Um 1900 such- ten August Föppl und andere nach technischen Lösungen für einen schnelldrehenden Kreisel.

1876 erhielt William Thomson ein Patent auf einen Kompass.[3] Sein Schüler John Per- ry erhielt 1919 ein US-Patent für einen Kreiselkompass. 1904 erhielt Fiermann An- schütz-Kaempfe ein Patent auf das technische Prinzip eines Kreiselkompasses. An- schütz-Kaempfe studierte zu diesem Zeitpunkt Medizin und Kunstgeschichte. Seine Bekanntschaft mit dem österreichischen Polarforscher Julius von Payer brachte ihn auf die Idee, den Nordpol mit einem U-Boot zu unterqueren. Anschütz-Kaempfe bemühte sich intensiv, Lösungen für die technischen Anforderungen einer solchen Fahrt zu fin- den. Herkömmliche Magnetkompasse sind in einem U-Boot unbrauchbar, da die Eisen- hülle das Erdmagnetfeld abschirmt. Erste Versuche mit Prototypen des neuen Kompas- ses führte er am 11. März 1904 auf dem Dampfer Schleswig in der Ostsee durch. Seit 1908 wurde der Kreiselkompass von der deutschen Marine eingesetzt.

Gleichzeitig entwickelten verschiedene andere Erfinder die Idee, ein Gyroskop in einem Kompass einzusetzen. So ließ sich Eimer Ambrose Sperry 1908 einen Kreiselkompass patentieren. Als Sperry 1914 Kreiselkompass-Systeme an die Kaiserliche Marine ver- kaufen wollte, kam es zum Patentstreit zwischen Anschütz-Kaempfe und Sperry vor dem Kaiserlichen Patentamt in Berlin, zu dem 1914 Albert Einstein als Gutachter hin- zugezogen wurde. Er sprach sich zunächst gegen Anschütz-Kaempfe aus. Seine Be- gründung: in der Patentschrift würde nur auf das Foucaultsche Pendel Bezug genom- men, nicht aber auf den„Meridiankreisel“. Nach Meinung Einsteins hatte sich An- schütz-Kaempfe zu wenig mit den Untersuchungen Foucaults zum Gyroskop auseinan- dergesetzt, als dass er der Erfinder hätte sein können. Nachdem Einstein den Patentanmelder Anschütz-Kaempfe und dessen Arbeitsweise kennengelemt hatte, änderte er seine Meinung. Es entwickelte sich eine persönliche Freundschaft zwischen den beiden. In einem weiteren Patentverfahren, in dem An- schütz-Kaempfe die Firma Kreiselbau GmbH wegen der Erfindung des künstlichen Ho- rizonts für Flugzeuge anging, bat Einstein 1918 das Gericht um Entlassung als Gutach- ter.

Fortan tauschte Einstein mit Anschütz-Kaempfe Ideen zum Kreiselkompass aus, welche zu einer Reihe entscheidender Verbesserungen führten und die in den Kugelkompass mündeten, ein vollständig versiegeltes Kreiselsystem, das gegen Manipulationen ge- schützt und gegen Störungen weitgehend unempfindlich ist. Für dieses wurde An- schütz-Kaempfe 1922 ein Patent zuerkannt, in dem auch Einsteins Anteil an der Erfin- dung genannt ist. Die von Anschütz gegründete Firma gleichen Namens existierte bis 1994, bevor sie von dem amerikanischen Unternehmen Raytheon übernommen wurde. Sie firmiert jedoch noch immer als Raytheon Anschütz GmbH.

94. Sensor

Es folgen weitere Ausführungsformen der Erfindung:

Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element für ei- nen Sensor und/oder einen Sensor enthaltend. Das elektronisches Element (E) ist erfin- dungsgemäß, vorgesehen vorzugsweise als Chip in einem Sensor und/oder Sensorele- ment, vorzugsweise für ein Element zur Verwendung als ein ein Steuerungs - und/oder Regelungs- und/oder Messtechnikelement.

Ein Sensor (von lateinisch sentire, dt.„fühlen“ oder„empfinden“), auch als Detektor, (Messgrößen- oder Mess-)Aufnehmer oder (Mess-)Fühler bezeichnet, ist ein techni- sches Bauteil, das bestimmte physikalische oder chemische Eigenschaften (physikalisch z. B. Wärmemenge, Temperatur, Feuchtigkeit, Druck, Schallfeldgrößen, Helligkeit, Be- schleunigung oder chemisch z. B. pH-Wert, Ionenstärke, elektrochemisches Potential) und/oder die stoffliche Beschaffenheit seiner Umgebung qualitativ oder als Messgröße quantitativ erfassen kann. Diese Größen werden mittels physikalischer oder chemischer Effekte erfasst und in ein weiterverarbeitbares elektrisches Signal umgeformt.

Für die Messtechnik wird in DIN 1319-1 der Begriff Aufnehmer (Messgrößen- Aufnehmer) verwendet und definiert als der Teil einer Messeinrichtung, der auf eine Messgröße unmittelbar anspricht. Damit ist der Aufnehmer das erste Element einer Messkette. Gemäß DEN 1319-2 gehört der Aufnehmer zu den Messumformern, bei gleicher physikalischer Größe an Eingang und Ausgang auch zu den Messwandlem.

Die Abgrenzung der Begriffe Sensor und Messgrößenaufnehmer, Messfühler, Messge- rät, Messeinrichtung etc. ist fließend, da dem Sensor zusätzlich zum eigentlichen Auf- nehmer teilweise weitere Elemente der Messkette zugeordnet werden. Auch verwandte Begriffe sind in der Literatur nicht eindeutig definiert.

Sensoren können nach Baugröße und Fertigungstechnik sowie nach Einsatz- und Ver- wendungszweck eingeteilt werden. Zudem unterscheidet man Sensoren entsprechend ihrer Wirkungsweise beim Umformen der Größen in passive und aktive Sensoren.

Sensoren lassen sich anhand der Erzeugung oder Verwendung elektrischer Energie in aktive und passive Sensoren einteilen.

Aktive Sensoren erzeugen aufgrund des Messprinzips ein elektrisches Signal, z. B. elektrodynamisch oder piezoelektrisch. Diese Sensoren sind also selbst Spannungser- zeuger und benötigen keine elektrische Hilfsenergie. Mit diesen Sensoren ist oft - be- dingt durch die physikalischen Prinzipien - jedoch nur eine Änderung der Messgröße detektierbar, da im statischen und quasistatischen Zustand keine Energie geliefert wer- den kann. Eine Ausnahme ist z. B. das Thermoelement, das auch bei konstanter Tempe- raturdifferenz ständig Spannung erzeugt. Außerdem sind aktive Sensoren in Umkeh- rung des physikalischen Messprinzips auch als Aktoren nutzbar, z. B. kann ein dynami- sches Mikrofon auch als Lautsprecher verwendet werden. Aktive Sensoren sind z. B.:

-Thermoelement (physikalische Grundlage: Thermoelektrischer Effekt)

-Lichtsensor (physikalische Grundlage: Photoelektrischer Effekt)

-Drucksensor (physikalische Grundlage: Piezoelektrischer Effekt)

Passive Sensoren enthalten passive Bauteile, deren Parameter durch die Messgröße ver- ändert werden. Durch eine Primärelektronik werden diese Parameter in elektrische Signale umgeformt. Dabei wird eine von außen zugeführte Hilfsenergie benötigt. Mit diesen ist es möglich, statische und quasi statische Messgrößen zu bestimmen. Aus die- sem Grund ist die überwiegende Zahl der Sensoren passiver Bauart.

Moderne Sensoren verfügen oft über eine umfangreiche Sekundärelektronik, die über von außen zugeführte Energie betrieben wird. Dennoch sind nicht alle diese Sensoren aktiv, vielmehr muss das Messverfahren selbst betrachtet werden.

Passive Sensoren sind z. B.:

-Wägezellen

-Widerstandsthermometer

-Dehnungsmessstre i fen

-Magnetfeldsensoren (Hall-Sonde)

Nach Messprinzip/Wirkprinzip: Sensoren lassen sich nach dem Wirkprinzip einordnen, welches dem Sensor zugrunde liegt. Für jedes Wirkprinzip gibt es eine Unmenge an Anwendungen. Im Folgenden sind einige Wirkprinzipien und Anwendungsfälle exem- plarisch aufgeführt. Die Liste ist nicht vollständig.

Manometer, Dehnungshebel, Federwaage, Hebelwaage, Ther-

Mechanisch

mometer

Thermoelektrisch Thermoelement

Resistiv Dehnungsmessstreifen (DMS), Hitzdraht, Halbleiter-DMS, Pt 100

Piezoelektrische Beschleunigungssensor Kapazitiv Drucksensor, Regensensor

Induktiv Neigungsmesser, Kraftsensor, Wegaufnehmer

Optisch CCD-Sensor, Fotozelle

Füll standssensor, Doppe lbogenkontrol le, Ultraschal 1-

Akustisch

Durchflussmesser,

Magnetisch Flall-Sensoren, Reed Kontakt

Nach Verwendungszweck:Sensoren, die Strahlung (z. B. Licht, Röntgenstrahlung oder Teilchen) nachweisen, bezeichnet man als Strahlungs- bzw. Teilchendetektoren. Auch ein normales Mikrofon ist ein Sensor für den Schallwechseldruck.

Des Weiteren unterscheiden sich Sensoren in verschiedenen Auflösungsarten:

-temporale Auflösung: Zeit zwischen zwei Aufnahmen.

-spektrale Auflösung: Bandbreite der Spektralkanäle, Anzahl der verschiedenen Bänder -radiometrische Auflösung: Kleinste Differenz der Strahlungsmenge, die der Sensor un- terscheiden kann.

-geometrische Auflösung: räumliche Auflösung, d. h. Größe eines Pixels.

Nach Standard

-NAMUR-Sensor (Normenarbeitsgemeinschaft für Mess- und Regeltechnik in der che- mischen Industrie)

-KTA-geprüfte Sensoren für den Einsatz in Kernkraftwerken

Virtuelle Sensoren: Virtuelle Sensoren (oder auch Softsensoren) sind nicht körperlich existent, sondern sind in Software realisiert. Sie„messen“ (berechnen) Werte, welche aus den Messwerten realer Sensoren mit Hilfe eines empirisch erlernten oder physikali- sehen Modells abgeleitet werden. Virtuelle Sensoren werden für Anwendungen einge- setzt, in denen reale Sensoren zu teuer sind, oder in Umgebungen, in denen reale Senso- ren nicht bestehen können oder schnell verschleißen. Weitere Anwendungsfälle sind Prozesse, in denen die gewünschten Werte nicht messbar sind, da es hierfür keine im Prozess einsetzbaren Hardware-Sensoren gibt oder wenn der Prozess nicht für Kalibrie- rung und Wartung klassischer Sensoren angehalten werden kann. Virtuelle Sensoren werden in der chemischen Industrie bereits eingesetzt und erschließen sich zunehmend Anwendungen in weiteren Industriezweigen wie z. B. der Kunststoffindustrie.

Digitale Sensoren: Im Bereich der Automatisierung werden analoge Systeme der Rege- lungstechnik zunehmend von digitalen Systemen verdrängt. Daher steigt der Bedarf an Sensoren, deren Ausgangssignal ebenfalls digital ist. Ein einfacher Aufbau ergibt sich, wenn der A/D-Umsetzer in das eigentliche Sensorsystem eingebunden wird. Dies kann zum Beispiel auf der Grundlage der Delta-Sigma-Modulationstechnik basieren und da- durch viele Vorteile bieten: direkt ermitteltes digitales Ausgangssignal (keine Störun- gen zwischen Sensor und ADU), hohe Linearität durch vorhandene Rückkopplung, ständiger Selbsttest ohne zusätzlichen Schaltungsaufwand durch benutzen des Limit Cycle der Sigma-Delta-Technik, hohe Amplitudenauflösung und Dynamik.

Nachteilig ist, dass die so erzeugte PWM oft nicht direkt ausgewertet werden kann und erst gefiltert werden muss. Dies kann durch ein analoges Filter und anschließender ADU oder völlig digital geschehen. Zudem ist der Übertragungsweg zum auswertenden System analog und damit störanfällig. Einfache Sensoren für Druck und Temperatur be- sitzen daher einen echten digitalen Datenausgang mit Anbindung über einen seriellen oder parallelen Bus. Weit verbreitet sind hier: PC oder SPI

Molekulare Sensoren: Molekulare Sensoren beruhen auf einem einzelnen Molekül, das nach Bindung eines weiteren Moleküls oder durch Bestrahlung mit Photonen unter- schiedliche Eigenschaften aufweist, die dann ausgelesen werden können. Mit fluores- zenzmarkierten Sensoren können über die Änderung des Emissionsspektrums mehr als zwei Zustände erfasst werden. Dadurch kann ein solcher Sensor auch als molekulares Schließsystem verwendet werden.

Der Begriff Sensor wird in der Technik und in den Lebenswissenschaften (Biologie und Medizin) verwendet, seit einigen Jahren verstärkt auch in den Naturwissenschaften. Beispiel für letztere sind Anwendungen von CCD-Bildsensoren und Teilchenzähler in der Astronomie, Geodäsie und Raumfahrt.

In der Technik spielen Sensoren in automatisierten Prozessen als Signalgeber eine wichtige Rolle. Die von ihnen erfassten Werte oder Zustände werden, meistens elek- trisch-elektronisch verstärkt, in der zugehörigen Steuerung verarbeitet, die entsprechen- de weitere Schritte auslöst. In den letzten Jahren wird diese anschließende Signalverar- beitung auch zunehmend im Sensor vorgenommen. Solche Sensoren beinhalten einen Mikroprozessor oder ein Mikrosystem und besitzen sozusagen „Intelligenz“, daher werden sie auch als Smart-Sensoren (engl smart sensors) bezeichnet.

Erfindungsgemäß ist die Verwendung des elektronischen Elementes (E) zur Verwen- dung für ein Element als ein Temperatursensor, -Abstandssensor-, Drucksensor-, Gas- sensor-, Biosensor-, Feldgerät-, Sensometz, BiSS-/Interface-, Sensorpartikelement vor- gesehen, vorzugsweise für Sensoren nach Messprinzip und/oder Sensoren nach Mess- größe.

Signalaufbereitung: Typische Verstärker zur Signalaufbereitung:

-Instrumentierungsverstärker

-Isolierverstärker

-Chopper-Verstärker

-Lock-i n- V erstärker

95. Magnetometer

Weitere Ausführungsformen für die Erfindung:

Das Elektronisches Element (E) ist erfindungsgemäß vorzugsweise als Sensorchip in einem Magnetometer vorgesehen.

Ein Magnetometer (umgangssprachlich auch als Teslameter oder Gaußmeter bezeich- net) ist eine sensorische Einrichtung zur Messung magnetischer Flussdichten. Magneti- sche Flussdichten werden in der Einheit Tesla (T) gemessen, und übliche Messbereiche von Magnetometern bewegen sich in einem Größenbereich von circa 10-15 T bis 10 T. Wegen des großen Wertebereiches kommen unterschiedliche Messverfahren unter dem Begriff„Magnetometer“ zum Einsatz.

Hier eine Auflistung der gebräuchlichsten Magnetometer:

-Hall-Sensoren

-Förster-Sonden oder Saturationskem-Magnetometer (engl.: Fluxgate oder second- harmonic detector)

-feststehende und rotierende Spulen (Induktion), z. B. Vibrating Sample Magnetometer -Optisch gepumpte Magnetometer, wie Alkalidampf-Magnetometer (z. B. mit atoma- rem Rubidium- oder Cäsiumdampf)

-SQUIDs messen mit einem supraleitenden Ring (Josephson-Effekt) die physikalisch kleinste messbare Stärke der magnetischen Flussdichte. Obwohl sie prinzipiell die emp- findlichsten Magnetometer sind, ist ihr Einsatz durch die benötigten tiefen Temperatu- ren bei der Supraleitung und die damit verbundenen Installationen (z. B. Kryostaten) sehr aufwendig. Sie werden nur im Labor eingesetzt.

-Protonenmagnetometer wie z. B. Overhauser-Magnetometer

-Magnetometer auf Basis von Bose-Einstein-Kondensaten (BEC-Magnetometer) mit einer Empfindlichkeit von 10-9 T sowie einer räumlichen Auflösung von 3 mm.

-Kerr-Magnetometer

-Faraday-Magnetometer (Nutzung des Faraday-Effektes)

Darüber hinaus gibt es noch weitere Sensoren für magnetische Flussdichten, die aber selten unter dem Begriff Magnetometer verwendet werden. Sie sind nicht so empfind- lich und rauscharm wie die bisher genannten:

-XMR-Sensor; Dünnschicht-Sensoren, die unter Einfluss des magnetischen Flusses di- rekt ihren Widerstand ändern und daher„X-MagnetoResistiv“ heißen, wie GMR-Sensor (giant, dt.„gewaltig, riesig“, GMR-Effekt), AMR-Sensor (anisotropic, dt.„anisotrop“ AMR-Effekt) oder CMR-Sensoren (colossal, dt.„überdimensional“).

-Feldplatte.

Obwohl XMR- und Hall-Sensoren nicht so empfindlich wie die vorgenannten sind, fin- den sie durch ihren einfachen Aufbau (Halbleitertechnik) und die damit verbundene günstige Herstellung bei einfacheren Aufgaben massenweise Verwendung. Dazu gehö- ren Kompasse, Näherungsschalter, Festplatten, Stromsensoren.

Eine der klassischen Aufgaben eines Magnetometers ist es, das Erdmagnetfeld mit sei- nen Schwankungen zu vermessen (Geomagnetik). Treten lokale Abweichungen des Magnetfeldes an der Erdoberfläche auf, so deutet dies auf ferromagnetische Materialien im Untergrund hin. Diese Störungen können zur Detektion von so unterschiedlichen Objekten wie z. B. Erzlagerstätten, U-Booten, Altlasten (z. B. Blindgänger) oder ar- chäologischen Strukturen dienen.

Eine hohe Bedeutung haben Magnetometer in der Raumfahrt. Sie kommen dort als La- gesensoren zum Einsatz und werden dazu verwendet, die Lage eines Satelliten zu be- stimmen. Von Luftfahrzeugen aus eingesetzte Magnetometer sind vor allem im militäri- schen Bereich auch unter der Abkürzung MAD (magnetic anomaly detector) bekannt. Um eine Beeinflussung durch ferromagnetische Bauteile des Luftfahrzeuges zu mini- mieren, werden solche Magnetometer entweder an einem Seil hinter dem Luftfahrzeug her geschleppt oder beispielsweise in einer stachelartigen Verlängerung des Rumpf- hecks untergebracht.

In Smartphones, Navigationsgeräten und VR Headsets werden Magnetometer einge- setzt, um einen Magnetkompass zu realisieren bzw. die Signale der Beschleunigungs- sensoren zur Lagebestimmung zu referenzieren.

Das Erdmagnetfeld, das nur annäherungsweise ein Dipolfeld ist, wird von außen etwa durch elektrische Felder in der hohen Atmosphäre, die durch Polarlichter sichtbar wer- den können, aber auch vom Inneren der Erde durch Körper mit eigenem Magnetismus beeinflusst. Eine metallhaltige Schmelze etwa nimmt die beim Abkühlen herrschende Ausrichtung des Erdmagnetfeldes an. Verändern sich später ihre Lage oder die Pole des Magnetfeldes, erzeugt das erkaltete Metall ein Störfeld. Dies kann im Großen durch ei- nen Erzgang, aber auch im Kleinen durch einen in der Wand verborgenen Nagel ge- schehen. Die Auslenkung einer Magnetnadel wird durch solche Störfelder allerdings viel zu we- nig verändert, als dass man sie mit dem bloßen Auge erkennen könnte. Man benötigt daher für mechanische Magnetometer - neben einer nahezu reibungsfrei gelagerten Magnetnadel - eine starke Ableseoptik. Neben der rein mechanischen Messung kann der Hall-Effekt zur elektrischen Magnetfeldmessung verwendet werden. Ein moderne- res Verfahren ist die Messung mit einem Protonen-Präzessions-Magnetometer, das auf subatomaren Wechselwirkungen basiert.

Das erste Magnetometer entwickelte 1832 der deutsche Physiker und Mathematiker Carl Friedrich Gauß, der die Beschreibung des Messgerätes am 18. Dezember 1833 in einem Vortrag über das Erdmagnetfeld Intensitas vis magneticae terrestris ad mesuram absolutam revocata (Die Stärke des Erdmagnetismus auf absolute Messungen reduziert) vor der königlichen Societät vorstellte, der in Folge auch gedruckt wurde. Im Jahr 1837 entwickelte Gauß seine Erfindung, das Unifilarmagnetometer (eine an einem Torsions- faden aufgehängte Magnetnadel), mit dem Messungen zeitaufwendig waren, gemein- sam mit Wilhelm Eduard Weber zum temperaturstabileren und rasch messenden Bi- filarmagnetometer (ein an zwei Fäden aufgehängter Magnetstab) weiter.

Vor den beiden Entwicklungen von Gauß war eine absolute Messung der Stärke von Magnetfeldern nicht möglich. Alexander von Humboldt hatte folgende Methode mit Geräten des Franzosen Gambey zur Stärkebestimmung benutzt: Eine Magnetnadel oder ein Magnetstab wird an einem Faden so aufgehängt, dass sich Nadel oder Stab horizon- tal frei drehen können. Die Nadel oder der Stab werden sich entsprechend dem örtlich wirksamen Erdmagnetfeld ausrichten.

Wenn die Nadel nun durch einen Stoß außerhalb dieser Linie gebracht wird, schwingt diese gemäß der Stärke des einwirkenden Magnetfeldes zur Ausgangsposition zurück, wegen ihres Drehimpulses aber darüber hinaus und dann wieder durch die Kraft des Magnetfeldes zurück etc. Die Dauer dieser Pendelbewegung um die ursprüngliche Aus- richtung, die Schwingungsperiode, erlaubt bei bekanntem Torsions-Trägheitsmoment die Berechnung der Stärke der einwirkenden Kraft, also des Magnetfeldes. Eine exakte Messung erfordert aber eine gleichbleibende Stärke des Magneten selbst, die aber mit der Zeit und dabei vor allem mit der Temperatur wechseln kann. So war es nicht mög- lich, die Messungen zu eichen. Gauß löste das Problem, indem er dieser Versuchsan- ordnung einen zweiten Magneten hinzufügte, wobei die Einwirkung des ersten auf den zweiten frei aufgehängten Magneten mit dem Erdmagnetfeld konkurriert. Indem die zwei Magneten in unterschiedliche Positionen zueinander gebracht werden und jedes Mal gemessen wird, kann durch Vergleich die jeweils aktuelle Stärke der Messmagne- ten herausgerechnet und die Magnetstärke des Erdmagnetfeldes objektiv bestimmt wer- den. Die für den Vergleich günstigen Positionen werden als Gauß'sche Lagen bezeich- net.

Die genaue Bestimmung der unterschiedlichen Winkel erreichte Gauß, indem er einen kleinen Spiegel auf dem Magneten anbrachte. Er beobachtete nun mit Hilfe eines klei- nen Fernrohrs mit Fadenkreuz das Spiegelbild einer ca. 6 m von Aufbau entfernten Ska- la. Man kann nun den aktuellen Drehwinkel des Spiegels einfach ausrechnen, indem man die Position des Fadenkreuzes auf der Skala beobachtet. Eine im Auftrag von Wil- helm Weber angefertigte Replik dieses Experiments befindet sich sowohl in dem noch erhaltenen eisenfreien Holzhaus, das sich Gauß für seine magnetischen Untersuchungen im Garten der Göttinger Sternwarte bauen ließ, als auch in der historischen Sammlung der Fakultät für Physik der Universität Göttingen.

96. Universal Mobile Telecommunications System (UMTS)

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis von UMTS, vorzugsweise zur Verwen- dung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtech- nik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungsgemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen. Das Universal Mobile Telecommunications System (UMTS) ist ein Mobilfunkstandard der dritten Generation (3G), mit dem deutlich höhere Datenübertragungsraten (bis zu 42 Mbit/s mit HSPA+, sonst max. 384 kbit/s) als mit dem Mobilfunkstandard der zwei- ten Generation (2G), dem GSM-Standard (bis zu 220 kbit/s bei EDGE, sonst max. 55 kbit/s bei GPRS), möglich sind.

Standardisierung : Die ITU hatte UMTS für IMT-2000 ausgewählt; es ist somit einer der Standards der dritten Generation für Mobilfunk. Ursprünglich hatte das ETSI (Eu- ropäisches Institut für Telekommunikationsnormen) UMTS standardisiert; heute pflegt das 3rd Generation Partnership Project (3GPP) es weiter. Der Standard wird ständig erweitert, beispielsweise erhöhte HSDPA die maximal mögliche Empfangs-Datenrate (Downlink). Für die Sende-Datenrate ist mit HSUPA eine vergleichbare Technik ver- fügbar.

Dienste

UMTS umfasst erweiterte multimediale Dienste sowie Satelliten- und erdgestützte Sen- deanlagen. Folgende Dienste können über UMTS angeboten werden:

-Zwischenmenschliche Kommunikation (Audio- und Videotelefonie)

-Nachrichtendienste (Unified Messaging, Video-Sprach-Mail, Chat)

-Informationsverteilung (Intemetzugang ® z. B. World-Wide-Web-Browsen, Informa- tionsdienste, öffentliche Dienste)

-Standortbezogene Dienste (persönliche Navigation, Fahrerunterstützung)

-Geschäftsdienste (Prozessmanagement, Mobilität in geschlossenen Räumen)

-Massendienste (Bankdienste, E-Commerce, Überwachung, Beratungsdienste)

-Rückkanal für mobiles interaktives Fernsehen, IP-Datacast, DVB-H

Im Oktober 2008 gab es 230 3G-Netze in 100 Ländern mit über 400 Millionen Teil- nehmern, 300 Millionen nutzen UMTS, und von diesen verwenden 60 Millionen HSPA (High Speed Packet Access). Teilnehmerstärkstes Land in Europa ist Italien: Allein H3G, Vodafone Italia und Telecom Italia hatten zusammen fast 20 Millionen 3G-Teilnehmer. Für Deutschland meldete der Branchenverband BITKOM Ende 2008 15,9 Millionen UMTS-Kunden und Ende 2011 fast 29 Millionen (35 Prozent mehr als im Vorjahr). Deutschland weit waren Mitte 2010 netzbetreiberübergreifend gut 70 % der Standorte, an denen ein Mobilfunk- netz verfügbar ist, mit 3G (UMTS oder HSDPA) versorgt. In Österreich gab es Ende 2008 3.344.000 genutzte 3G-SIM-Karten, davon 812.700 Verträge für breitbandiges mobiles Internet per UMTS.

Nach übereinstimmenden Medienberichten hat der Hacker Tobias Engel im Dezember 2014 gezeigt, dass die Kommunikation über den als sicher geltenden Mobilfunkstan- dard UMTS ohne großen technischen Aufwand abgehört, mitgelesen und manipuliert werden kann. Die deutschen Mobilfunknetzbetreiber arbeiten nach eigenen Angaben an Möglichkeiten, die genutzten Lücken zu schließen.

Durch die Versteigerung der UMTS-Lizenzen im Juli/August 2000 nahm die Bundes- republik Deutschland 98,8 Milliarden DM (entspricht etwa 50 Milliarden Euro) ein. Das veranlasste den damaligen Finanzminister Hans Eichel zu dem Ausspruch, UMTS stehe für„Unerwartete Mehreinnahmen zur Tilgung von Staatsschulden“. Die Ausga- ben der Unternehmen für die ersteigerten Lizenzen waren in Deutschland absolut be- trachtet (nicht pro Einwohner) international am höchsten.

Es wurden sechs Lizenzen zu je etwa 16 Milliarden DM an die folgenden Mobilfunk- anbieter vergeben: T-Mobile Deutschland GmbH, Vodafone D2 GmbH, MobilCom Multimedia GmbH, Auditorium Investments Germany S.ä.r.l. (ursprünglich ein Kon- sortium aus E-Plus und Hutchison, später umfirmiert in E-plus 3G Luxemburg S.ä.r.l.), 02 und Group 3G (ein Konsortium aus der spanischen Telefönica und der finnischen Sonera).

Die Lizenzen wurden am 6. Oktober 2000 erteilt. Zwei Lizenzen wurden später aufge- geben: Ende 2003 gab die MobilCom Multimedia GmbH ihre Lizenz aus freien Stücken zurück an die RegTP und verzichtete damit auf die Ausübung der Lizenz- und Fre- quenznutzungsrechte; im Oktober 2002 verlor Group 3G mit dem Ausstieg aus dem deutschen Markt ihre Lizenz, da diese nicht an Dritte weiterverkauft werden durfte. Die hohen Kosten und das geringe Angebot nutzbarer Datendienste waren einer der Haupt- gründe für den schleppenden Durchbruch von UMTS im Massenmarkt: Die Unterneh- men begründeten ihre unattraktiv hohen Gebühren mit den immensen Lizenzkosten, die Kunden nahmen die Angebote nur sehr zögerlich an und die Aktionäre beklagten fal- lende Untemehmenswerte. Im Rückblick hat das hohe Versteigerungsergebnis dem Mobilfunkmarkt geschadet.

Ein an sich gewollter Wettbewerb kam durch die Auktion effektiv nicht zustande, da kleinere Firmen durch die hohen Einstiegspreise am Markteintritt gehindert wurden; große Firmen verloren durch die sofort fällige Lizenzgebühr die notwendige Liquidität für einen zügigen Netzausbau und Firmenwerte gingen durch die Unveräußerbarkeit ei- ner nicht mehr benötigten UMTS-Lizenz verloren. Zudem sprach sich schnell im Markt herum, dass ein guter UMTS-Empfang nur in wenigen Ballungsräumen gesichert war, aber abseits davon in ländlichen Gegenden bedingt durch die geringe Reichweiten der hochfrequenten Dienste die Datendienste nicht oder nur schleppend nutzbar waren. In Deutschland gab es 2003 erste Probeläufe für einige wenige Firmenkunden, die zudem auch nur Datenkarten nutzen konnten. Seit 2004 ist UMTS in Deutschland kommerziell verfügbar und im Laufe der Folgejahre gab es auch entsprechende Mobiltelefone in aus- reichender Stückzahl.

Anfang Februar 2007 kündigte die Bundesnetzagentur an, die zurückgegebenen sowie weitere UMTS-Frequenzblöcke (erneut) zu versteigern; ursprünglich für 2008 geplant, wurde die Auktion im Mai 2010 durch geführt. Ende Mai 2010 wurden im Rahmen des 3rd Generation Partnership Project (3GPP) Lizenzen für den Betrieb des UMTS- Nachfolgestandards Long Term Evolution (LTE) in Deutschland versteigert. Telekom Deutschland, Vodafone und Telefönica Germany investierten zusammen rund 4,4 Mil- liarden Euro in den UMTS-Nachfolger. Dieser soll langfristig auch die UMTS- Frequenzen nutzen und damit dieses komplett ersetzen. Anfang Juli 2019 kündigten Telekom, Vodafone und 02 an, dass UMTS abgeschaltet wird, damit Frequenzen für 5G frei werden. Bei Telekom und Vodafone soll das bis 2021 passieren, bei 02 ist es noch unklar, wann 3G abgeschaltet wird. Das weltweit er- ste UMTS-Netz wurde 2001 durch die Manx Telecom auf der Isle of Man in Betrieb genommen.

Die österreichische Mobilkom Austria startete am 25. September 2002 das erste natio- nale UMTS-Netz Europas, jedoch noch ohne entsprechende UMTS-Mobiltelefone in größerer Stückzahl für Endkunden anbieten zu können. Der erste Anbieter mobiler Vi- deotelefonie über ein UMTS-Netz im deutschsprachigen Raum, der auch über entspre- chende Stückzahlen von geeigneten Mobiltelefonen verfügte, war der österreichische Anbieter Hutchison Drei Austria im Mai 2003.

Die meisten Versteigerungen der UMTS-Lizenzen in Europa wurden im Jahr 2000 durchgefuhrt, angeführt von Großbritannien im Frühjahr 2000. Dabei wurde ein Erlös von 22,477 Milliarden britischen Pfund, etwa 38 Milliarden Euro, erzielt. Relativ pro erreichbarem Einwohner gesehen, liegt dieser Betrag über dem Ergebnis der deutschen Versteigerung. In Frankreich wurden die Lizenzen Ende 2000 unter Berücksichtigung der von den Anbietern zugesagten Qualitätsmerkmale (Netzabdeckung, Geschwindig- keit des Ausbaus) vergeben. Deutlich niedriger als in anderen Ländern wurden die Li- zenzen an die Unternehmen in Spanien mit 13 Euro pro Einwohner und in der Schweiz mit rund 7 Schweizer Franken (knapp 5 Euro) pro Einwohner verkauft.

Es gibt mehrere Phasen von UMTS. Die erste Phase (Release 1999, kurz R99) unter- scheidet sich vom Vorgängersystem GSM vor allem durch eine neue Funkzugriffstech- nik Wideband CDMA, die auf CDMA basiert. Durch diese werden höhere Übertra- gungsraten möglich. Außerdem kann eine Mobilstation, also das UMTS-fahige Endge- rät, mehrere Datenströme gleichzeitig senden, beziehungsweise empfangen. Damit können Benutzer beispielsweise gleichzeitig telefonieren und E-Mails empfangen. Man unterscheidet Access-Stratum und non-Access-Stratum, also eine Zusammenfas- sung der Protokollschichten, die den Funkzugang betreffen, beziehungsweise derjeni- gen, die nicht den Funkzugang (sondern die Dienste und die Teilnehmerverwaltung im Kernnetz) betreffen.

FDD-Modus: Im FDD-Modus (Frequency Division Duplex) senden Mobil- und Basis- station in zwei verschiedenen Frequenzbereichen: Im Uplink-Kanal sendet das Mobil- gerät, im Downlink-Kanal die Basisstation. Die beiden Frequenzbereiche haben je eine Breite von 5 MHz. Die einzelnen Übertragungskanäle sind durch reines CDMA reali- siert. Derzeit bauen die deutschen UMTS-Netzbetreiber ihre Netze im FDD-Modus auf, die damit erzielbare Datentransferrate liegt bei 384 kbit/s für den Downlink in R99. Das Verfahren ist für die großflächige Funknetzabdeckung gedacht.

-Grundlegende Funktechnik: Wideband CDMA (WCDMA)

-Nutzertrennung: Code (CDMA)

-Duplex: FDD

-Anbietertrennung: Frequenz (FDMA)

-Kanalabstand: 5 MHz

-Chip-Rate bei FDD: 3,84 Mcps

-Maximale Sendeleistung der Mobilstation: 0,125-0,25 Watt (GSM zum Vergleich: 1-2 Watt)

Die Weiterentwicklung High Speed Downlink Packet Access (HSDPA) ermöglicht deutlich höhere Empfangs-Datenraten (sog.„Downlink“). Es wurden verschiedene Ge- räte-Kategorien definiert, die sich in den unterstützten Modulationsarten (QPSK oder 16QAM), der Anzahl der gleichzeitig empfangbaren Kanäle und dem zeitlichen Min- destabstand von HSDPA-Blöcken unterscheiden. Die praktisch erreichbare und nutzba- re Empfangs-Datenrate ist jedoch auf Grund von Interferenz in der Regel niedriger. Zu- dem hängt die erzielbare Datenrate auch noch von der Fähigkeit des Endgerätes ab. Gängige Geräte unterstützen die HSDPA-Kategorie 8, mit welcher bis zu 7,2 Mbit/s im Download erreicht werden, während Neuere hingegen bereits HSDPA-Kategorien 14 und 24 (bis zu 21,1 Mbit/s bzw. 42,2 Mbit/s) unterstützen.

Diese Geschwindigkeiten sind bislang in Deutschland in den UMTS-Netzen von T- Mobile, Vodafone, E-Plus und 02 verfügbar. In Deutschland führten Mitte 2007 die er- sten Provider die HSDPA-Kategorie 8 mit maximal 7,2 Mbit/s ein. Mittlerweile bieten T-Mobile sowie Vodafone HSDPA-Geschwindigkeiten von 42,2 Mbit/s an. E-Plus und 02 hingegen stellen maximal Geschwindigkeiten von 21,1 Mbit/s bereit, allerdings be- gann E-Plus im Jahr 2013 damit, ihr UMTS-Netz schrittweise auf 42,2 Mbit/s auszu- bauen.

Im Zuge des Ausbaus von HSDPA kann mittels High Speed Uplink Packet Access (HSUPA) auch die maximal mögliche Sende-Datenrate (sog.„Uplink“) auf 5,8 Mbit/s gesteigert werden. Um diese deutlich höhere Geschwindigkeit zu nutzen, benötigt man ein Endgerät, welches HSUPA unterstützt. Alle deutschen Netzbetreiber bieten HSUPA in ihren UMTS-Netzen an.

Siehe auch

-Mobilfunk

-Mobiles Internet

-UTRA Absolute Radio Frequency Channel Number (UARFCN)

-Dienstgüteklassen von UMTS

-Femtozelle

-UMTS -Datenkarte

97. LTE

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis von LTE, vorzugsweise zur Verwen- dung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtech- nik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungsgemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen.

LTE steht als Abkürzung für:

Telekommunikation

-Long Term Evolution, ein Mobilfunkstandard der vierten Generation (3,9G-Standard) -LTE-Advanced, eine Weiterentwicklung des Mobilfunkstandards Long Term Evoluti- on, auch 4G genannt

98. LTE- Advanced

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis von LTE-Advanced, vorzugsweise zur Verwendung des elekronischen Elementes (E) in der Steuerungs Regelungs- und Messtechnik, wobei die Frequenzbänder des elektronischen Elementes (E) erfmdungs- gemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen.

LTE-Advanced (Long-Term-Evolution-Advanced, abgekürzt LTE-A oder LTE+) ist ein Mobilfunkstandard der vierten Generation (4G) und eine Erweiterung von LTE, die höhere Datenübertragungsraten ermöglicht. Zu den Verbesserungen gehören je nach Ausprägung und Gerätestandard höhere Bandbreiten von 300 bis 400 Megabit pro Se- kunde im Download und bis zu 1000 Megabit pro Sekunde im Upload und niedrigere Latenzen. Die ersten LTE-Advanced-Geräte kamen 2014 in Deutschland auf den Markt, wobei bestehende LTE-Basisstationen lediglich ein Software-Update benötigten.

Wie schon beim Design des UMTS-Standards (3G), der darauf ausgelegt war, den im- mer weiter steigenden Ansprüchen im Mobilfunknetz gerecht zu werden, wurde auch die LTE-Mobilfunktechnik konzipiert, im Laufe der Zeit technisch erweitert werden zu können. Erste Überlegungen und Konzepte dazu wurden schon im Jahr 2002 mit dem ITU-R-Vorschlag (Working Party 8F)„Future development of IMT-2000 and Systems beyond IMT-2000“ („Zukünftige Entwicklung von IMT-2000 und Systemen nach IMT- 2000“) ausgearbeitet. [4] [5] Weitere Arbeitsgruppen formierten sich nach der Radio- communication Assembly im Jahr 2007 (RA-07). Zudem wurde eine, für die Entwick- lung von LTE wichtige internationale Einigung in Bezug auf die Frequenzverteilung auf der WTC-07 erzielt.

Im September 2009 wurde von der 3GPP-Arbeitsgruppe der Vorschlag„LTE Release 10 & beyond (LTE -Advanced)“ bei der ITU eingereicht, [7] um den Vorgänger LTE Release 8 (auch IMT-2000 genannt) abzulösen und damit offiziell den von der ITU-R im Jahr 2008 gestellten Anforderungskatalog IMT-Advanced zu erfüllen. Auf dem Mo- bile World Congress 2011 in Barcelona wurde LTE -Advanced dann vorgestellt, damals erreichte man unter Laborbedingungen 1,2 Gbit/s. Ein Test von Ericsson mit LTE Ad- vanced im Juni 2011 fand unter Live-Bedingungen mit einer handelsüblichen Hardware statt; im Download wurde dabei eine Geschwindigkeit von 900 Mbit/s erzielt. Im Okto- ber 2011 wurde der Vorschlag von der ITU-R-Arbeitsgruppe WP5D als vollständig und alle Kriterien erfüllend genehmigt[8] und somit offiziell angenommen.

-LTE-Advanced ist abwärtskompatibel zu LTE, wodurch auch ältere LTE-Geräte die neuen Netze weiterhin verwenden können.

-Konfiguration von zwei oder mehreren Sende- und Empfangsantennen (Mehrantennen- technik oder auch MIMO-Technik) und die dazugehörige Technik wie CoMP (Coordi- nated multipoint transmission and reception), mit der sich in heterogenen Netzen ver- schiedene Basisstationen parallel verwenden lassen (auch bei jeweils unterschiedlichen Signalstärken).

-Relay-Verfahren: Die verfügbaren Frequenzen unterscheiden sich je nach Land, dabei soll die LTE-Advanced weltweites Roaming unterstützen.

Anwendungsspezifische Vorteile:

Echtzeitspiele (geringe Latenz)

Breitbandanschluss für nicht-mobile Endkunden, ersetzt den drahtgebundenen Breit- bandanschluss (vertraglich, wie bei Vodafone geregelt, dann auch nur auf bestimmte Regionen eingeschränkt nutzbar) Breitbandanschluss höherer Kapazität für nicht-mobile Endkunden, ergänzt den draht- gebundenen DSL Anschluss (vertraglich, wie bei Telekom geregelt)

VoIP -Video- und Audiotelefonie (sofern entsprechende Protokolle nicht wie bei vielen deutschen Providern blockiert werden)

Anforderungen an LTE Advanced sind:

-Gesteigerte Spitzendatenraten von DL 3 Gbps, UL 1,5 Gbps

-Höhere spektrale Effizienz von 16bps/Hz in Rel. 8 bis 30 bps/Hz in Rel. 10

-Höhere Anzahl gleichzeitig aktiver Nutzer

-Höhere Datenraten am Zellrand, z. B. für DL 2x2 MIMO mindestens 2,4 bps/Hz/Zelle

-Die wichtigsten neuen Funktionen, die mit LTE Advanced eingeführt worden sind: -Carrier Aggregation (CA),

-Verbesserte Nutzung von Multi-Antennentechniken (8x8 MIMO im DL)

-Unterstützung von Relay Nodes (RN).

Bis zu fünffache Bündelungen (engl. Carrier Aggregation) von 3.9G-spezifizierten 20- MHz-Komponententrägem sind möglich, auch wenn sie innerhalb des Frequenzbandes spektral getrennt sind. Träger können auch aus anderen Bändern miteinander gebündelt werden. Dabei skaliert die Anzahl der Komponententräger dynamisch je nach Bedarf der Datenraten in wenigen Millisekunden. Die Daten werden von einem netzseitigen Scheduler auf die jeweils benötigten Komponententräger anhand verschiedener Ausla- stungskriterien wie QoS-Parametem, Puffer- und Kanalzuständen verteilt (abhängig von OFDM-Ressourcen, Antennenkonstellation, Modulations- und Kodierungsstufe).

99. 5G - Technoglogie

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis von 5G, vorzugsweise zur Verwendung des elekronischen Elementes (E) in der Steuerungs Regelungs- und Messtechnik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungsgemäß Fre- quenzbandbreiten zwischen 1Hz und 100 GHz aufweisen.

5G (für fifth generation, zu Deutsch fünfte Generation) ist der Name eines Standards für mobiles Internet und Mobiltelefonie. Im Jahr 2019 fand in der Bundesrepublik Deutsch- land eine Versteigerung der Lizenzen statt. Südkorea, die Schweiz und einzelne Städte in den USA haben 5G bereits in Betrieb genommen. Internationale Netzbetreiber und Infrastrukturanbieter diskutieren technische Anforderungen und Anwendungsfälle. Über das Programm Horizont 2020 gibt die Europäische Kommission 700 Mio. EUR Steuergelder für die Forschungs- und Innovationsforderung im Zusammenhang mit 5G aus.

5G soll auf dem bestehenden Mobilfunkstandard„Long Term Evolution“ aufbauen. Wesentliche Neuerungen von 5G werden erst bei der Nutzung von Frequenzen oberhalb von 6 GHz erwartet. Die Funkzellen werden voraussichtlich bei 5G in Städten engma- schiger ausgebaut werden als bei Vorgängertechniken. Die Standardisierungsorganisa- tion 3GPP hat im Dezember 2018 mit Release 15 den ersten Standard veröffentlicht, der Funktionen von 5G beinhaltet. Weitere Funktionen sind für Release 16 mit Veröffentli- chung im März 2020 geplant.

Im Vergleich zum 4G-Standard wird bei der 5G-Technik mit den folgenden Eigen- schaften gerechnet:

-Datenraten bis zu 10 Gbit/s

-Nutzung höherer Frequenzbereiche

-erhöhte Frequenzkapazität und Datendurchsatz

-Echtzeitübertragung, weltweit 100 Milliarden Mobilfunkgeräte gleichzeitig ansprech- bar

-Latenzzeiten von unter 1 ms Anwendungen:

Die 5G Technologie ist grundsätzlich auf drei verschiedene Anwendungs-Szenarien hin ausgerichtet.

-eMBB: Enhanced Mobile Broadband, also eine erweiterte mobile Breitbandverbin- dung, um Mobilgeräte mit möglichst hohen Datenraten zu versorgen.

-mMTC: Massive Machine Type Communication. Dieser Bereich umfasst hauptsäch- lich das„Internet der Dinge“ (IoT) und soll möglichst viele Verbindungen mit eher ge- ringen Datenraten und niedrigem Energieverbrauch unterstützen.

-uRLLC:Ultra-reliable and Low Latency, soll zuverlässige Verbindungen mit geringer Latenz ermöglichen, die beispielsweise für autonomes Fahren oder Industrie Automati- on benötigt werden.

-In der ersten Phase der 5G Realisierung im Jahr 2019 wird fast ausschließlich der Be- reich eMBB ausgebaut.

Modulationsverfahren: Der Mobilfunk der 5. Generation (5G) verwendet ähnliche Fre- quenzmodulationen wie bereits LTE (4G). Dazu zählt insbesondere OFDM (Orthogonal Frequency-Division Multiplexing), wobei das Verfahren im Vergleich zu LTE erweitert wurde und nun CP -OFDM (Cyclic Prefix OFDM) verwendet wird. [8] Im Sendebetrieb des Mobilgeräte (uplink) kommt teilweise auch DFT-s-OFDM (Discrete Fourier Trans- form spread Orthogonal-Frequency Division Multiplexing) zum Einsatz.

Die verwendeten Modulationen sind: QPSK (Quadraturphasenumtastung), 16QAM, 64QAM und 256QAM (Quadraturamplitudenmodulation). [9]

Bei 5G kommt auch die sogenannte Carrier Aggregation (CA) massiv zum Einsatz, wobei bis zu 16 Carrier kombiniert werden können um den Datendurchsatz weiter zu erhöhen.

Latenzen: Bei 5G wird oft von sehr kurzen Latenzzeiten unter 1 ms gesprochen. Dabei ist allerdings zu beachten, dass sich die gesamte Latenz aus mehreren Anteilen zusam- mensetzt: -Die Luftschnittstelle, also die Verbindung vom Mobilgerät zur Basistation. Die Latenz der Luftschnittstelle lässt sich bei 5G unter Laborbedingungen tatsächlich unter 1 ms realisieren.

-Die Latenz der hinter der Basisstation liegenden Datenverarbeitung hin zum Tele- kommunikationsnetzwerk.

-Latenz zum Internet: Greift der Nutzer auf Anwendungen und Daten im Internet zu, kommt noch die Latenz der beteiligten Server hinzu (die völlig unabhängig vom 5G- Standard sind).

Die realen Ende-zu-Ende-Latenzen, die der US-Telefonanbieter Verizone in Chicago im März 2019 erreicht, liegen im Bereich von 30 ms.

Das Frequenzspektrum bei 5G wird in zwei Bereiche unterteilt, die FR1 und FR2 (von engl. Frequency Range) genannt werden. FR1 umfasst im Wesentlichen die Frequenzen zwischen 600 MHz und 6 GHz. In diesem Frequenzbereich wird sowohl FDD (Fre- quency Division Duplexing) als auch TDD (Time Division Duplexing) verwendet. Der Frequenzbereich FR2 beginnt oberhalb von 24 GHz und arbeitet im Millimeterwellen- bereich. Bis Mai 2019 waren Frequenzen bis 40 GHz für 5G ffeigegeben, eine Erweite- rung bis 60 oder 80 GHz ist jedoch in Zukunft prinzipiell möglich und geplant. Elek- tromagnetische Wellen im Millimeterwellen Bereich sind zwar hilfreich um große Da- tenmengen zu übertragen, die Reichweite nimmt aber bei höheren Frequenzen immer mehr ab. Auch können Funkwellen bei z. B. 28 GHz einfache Hindernisse wie Wände oder Bäume nicht durchdringen.

Elektromagnetische Wellen lassen sich jedoch gezielt durch phased array Antennen formen und auf ein Ziel ausrichten. Bei 5G kommt diese Technik bei Millimeterwellen zum Einsatz, um einzelne mobile Empfangsgeräte bei Bedarf gezielt mit hohen Daten- raten zu versorgen. Die 5G Spezifikation sieht bis zu 256 Einzelantennen vor, die für sogenanntes massive MIMO verschaltet werden können.

Energieverbrauch: Der theoretische Energieverbrauch pro übertragenem Bit ist bei 5G zwar im Idealfall nur ein 1/100 dessen was bei LTE verbraucht wird. Da aber die Da- tenraten auch sehr viel größer sind, ist der insgesamte Energieverbrauch deutlich höher. Erste Erfahrungsberichte belegen, dass sich Mobiltelefone bei Nutzung von FR2 stark erwärmen und viel Strom brauchen.

Da die Reichweite der 5G Basisstationen in FR2 gering ist, werden sehr viel mehr Ba- sisstationen gebraucht als bei 4G. In Folge dessen steigt der Energieverbrauch des Ge- samtsystems erheblich. Eine Abschätzung von Huawei ergab eine beinahe Verdoppe- lung des Energieverbrauchs.

Wegen der komplexen Anforderungen von 5G-Netzwerken sind wöchentliche Soft- ware-Aktualisierungen unter anderem auch durch Drittanbieter erforderlich. Es ist zeit- lich nicht möglich, dass Softwaretestzentren diese Software-Versionen regelmäßig und vollständig überprüfen und ständig alle Sicherheitsaspekte überwachen. Selbst bei streng geprüfter Hardware kann die Software somit ohne großen Aufwand Hintertüren für eine heimliche Kommunikation öffnen und auf diese Weise zum Beispiel Cyber- space-Spionage ermöglichen.

Ein Bericht der Regierung des Vereinigten Königreiches hat dem chinesischen Anbie- ter von 5G-Technik Huawei nur ein beschränktes Sicherheitsniveau attestiert, so dass dessen Produkte nicht für kritische Infrastrukturen eingesetzt werden dürfen. [20] Diese Bedenken wurden zu Beginn des Jahres 2019 allerdings nach einem Audit durch das GCHQ ausgeräumt. Die Europäischen Kommission legte eine Risikobewertung von 5G-Netzen in Europa vor, in der sie vor allem vor Angriffen aus "Nicht-EU-Staaten oder von staatlich unterstützten Organisationen" warnte. Namen von Firmen oder mög- lichen Staaten, die hinter Angriffen stehen könnten, nannte die EU nicht.

Gesundheit: Gesundheitliche Risiken für Menschen und Tiere durch 5G werden von Kritikern als unzureichend erforscht angesehen. Dabei wird häufig auf schwer oder nicht belegbare Effekte wie die Elektrosensibilität Bezug genommen.[23] Zweifelsfrei belegt ist die Erwärmung von Gewebe durch die elektromagnetische Strahlung. Nach Expertenmeinung und Auffassung der Internationalen Kommission für den Schutz vor nichtionisierender Strahlung sowie des Bundesamtes für Strahlenschutz ist die Erwär- mung jedoch bei Einhaltung von Grenzwerten unbedenklich. Wegen der erhöhten An- zahl an Antennen und neuen Technologien wie Beamforming ist es allerdings schwie- rig, Strahlungsintensitäten konkret vorherzusagen.

Mit wissenschaftlichen Methoden kann weder eine generelle Unschädlichkeit der 5G- Strahlung noch das Gegenteil bewiesen werden. Für epidemiologische Studien fehlt ei- ne unbelastete Kontrollgruppe, da fast die gesamte Bevölkerung hochfrequenten elek- tromagnetischen Feldern, wie zum Beispiel schon durch WLAN-Nutzung, ausgesetzt ist. Der Bund für Umwelt und Naturschutz Deutschland fordert, dass vor dem Ausbau der Mobilfunknetze zu 5G die gesundheitlichen Auswirkungen weiter erforscht werden. Wegen Bedenken, ob die Grenzwerte zum Strahlenschutz mit einem geplanten 5G-Netz eingehalten werden, wurde in Brüssel ein Pilotprojekt gestoppt. [26] In der Schweiz ha- ben die Parlamente in den Kantonen Genf und Waadt ihre Regierungen aufgefordert, ein Moratorium für die Installation von 5G-Antennen auf Kantonsgebiet zu erlassen be- ziehungsweise zu prüfen.

Der Chiphersteller Qualcomm kündigte für das zweite Halbjahr 2017 das erste Modem mit 5 Gbit/s im Downstream für die 5G-Technologie an. Auf dem GSMA Mobile World Congress stellte der chinesische Telekommunikationsausrüster ZTE am 26. Februar 2017 weltweit das erste Smartphone vor, das den Standard Pre5G Giga+ MBB für eine Datenübertragung von bis zu 1 Gbit/s unterstützt. Im Smartphone- Bereich kündigte der Computer- und Smartphone-Hersteller Lenovo an, eine Führungs- rolle bei der Einführung des neuen 5G-Standards anzupeilen. Bereits jetzt wird an dem Nachfolgestandard 6G geforscht.

Als weltweit erstes Land nahm Südkorea am 3. April 2019 ein flächendeckendes 5G- Netz in Betrieb. Die Inbetriebnahme erfolgte zwei Tage früher als geplant, womit Süd- korea dem US-amerikanischen Mobilfunkanbieter Verizon und dessen Einführung von 5G in den Städten Chicago und Minneapolis um zwei Stunden zuvorkam. Im August 2019 gab der Netzbetreiber SK Telecom bekannt, als erster Mobilfünkkonzem der Welt bereits mehr als eine Million Kunden mit 5G-Tarifen zu haben. Insgesamt hat das Un- ternehmen nach eigenen Angaben 28 Millionen Kunden in Südkorea.

In Deutschland ist die Bundesnetzagentur für die Vergabe der Mobilfunkfrequenzen verantwortlich. Am 19. März 2019 begann die Versteigerung der Frequenzen in den Be- reichen 2 GHz und 3,4 GHz bis 3,7 GHz am Standort der Bundesnetzagentur in Mainz. Zur Auktion wurden die Unternehmen Drillisch Netz AG (l&l Drillisch), Telefönica Germany GmbH & Co. OHG (02), Telekom Deutschland GmbH und die Vodafone GmbH zugelassen. Die Summe der Höchstgebote überstieg am 24. Mai 2019 die Marke von sechs Milliarden Euro.

Die Vergabe der Frequenzen für den 5G-Mobilfunk im Jahr 2019 ist teurer als die ver- gangenen beiden Frequenzauktionen in Deutschland. 2010 hatten die Mobilfunkunter- nehmen 4,4 Milliarden Euro für die Frequenzen bezahlt. 2015 waren es rund fünf Milli- arden Euro. Die Vergabe der UMTS-Frequenzen im Jahr 2000 war jedoch noch wesent- lich teurer. Damals hatten die Firmen 50,8 Milliarden Euro bezahlt.

Die Behörde hat im November 2018 die Vergabebedingungen für die Frequenzauktion im 3,6-GHz-Band festgelegt. Diese sehen vor, dass die Frequenzen im Rahmen einer Auktion vergeben werden und die Vergabe an Versorgungsauflagen geknüpft wird. Demnach sollen etwa Autobahnen und die wichtigsten Bundesstraßen mit einer Daten- geschwindigkeit von 100 Megabit pro Sekunde bis Ende 2022, alle übrigen Bundes- straßen bis Ende 2024 versorgt werden. Darüber hinaus muss jeder bei der Auktion er- folgreiche Netzbetreiber 1000 5G-Basisstationen ausbauen. Den ersten Sendemast nahm Vodafone Anfang November 2018 auf einem über 400.000 Quadratmeter großen Testgelände bei Aldenhoven in der Nähe von Aachen in Betrieb.

Die Bundesnetzagentur hat zudem vorgesehen, dass 100 MHz im Frequenzbereich von 3,7 bis 3,8 GHz für lokale Anwendungen, insbesondere im Bereich Industrie 4.0, reser- viert werden. Diese Frequenzen sollen nicht versteigert werden, sondern gegen eine Gebühr vom jeweiligen Grundstückseigentümer für eine lokale Nutzung beantragt wer- den können.

Die Deutsche Telekom kündigte an, bis zum Jahr 2025 mindestens 99 Prozent der Be- völkerung und 90 Prozent der Fläche Deutschlands mit 5G zu versorgen. Dazu will sie jedes Jahr mehr als 2.000 neue Mobilfunk-Standorte bauen. Von den beiden anderen Mobilfunkbetreibem in Deutschland, Vodafone und Telefönica Deutschland, liegen bis- lang noch keine konkreten Ankündigungen zum Ausbau von 5G in Deutschland vor. Der Gründer von United Internet, Ralph Dommermuth, kündigte an, im Falle eines Er- folgs bei der 5G-Auktion, bei der die Tochtergesellschaft Drillisch Netz AG antritt, ein eigenes 5G-Netz in Konkurrenz zu Telekom, Vodafone und Telefönica in Deutschland aufzubauen. Am 17. Juli 2019 startete Vodafone als erster Anbieter in Deutschland mit einem für Privatkunden offenen, kommerziellen 5G-Netz. Als Smartphones werden das Huawei Mate 20 X 5G und Samsung S10 5G angeboten. Außerdem gibt es mit dem GigaCube 5G einen Intemetrouter.

Aktuell (Stand: 15. September 2019) sind einige der teureren Laufzeitverträge der Tele- kom für 5G freigeschaltet. Versuche in Berlin, Darmstadt und Bonn ergaben Down- load-Geschwindigkeiten von bis zu 900 Mbps.

Die Telekom gab den Start ihres 5G-Netzes im September 2019 bekannt mit 120 An- tennen in den Städten Berlin, München, Köln, Bonn und Darmstadt.

Im Schweizer Mobilfunkmarkt lässt die Verordnung über den Schutz vor nichtionisie- render Strahlung (NISV) den Betrieb von 5G-Antennen nur mit geringer Reichweite zu. Der Ständerat stellte sich am 5. März 2018 nach einer bereits 15 Monaten zuvor ge- troffenen ablehnenden Entscheidung erneut gegen die Erhöhung der bestehenden Grenzwerte. Im Februar 2019 wurde bekannt, dass das Bundesamt für Umwelt eine Re- vision der Verordnung vorbereite, über welche der Bundesrat und das Parlament zu ent- scheiden haben. Am 17. April hat der Bundesrat die NISV im Sinne der Telekomindu- strie angepasst. Laut OOKLA 5G MAP verfügt die Schweiz mit Stand Mai 2019 über das größte 5G-Netz der Welt. Die Mobilfunkanbieter Swisscom (mit Ericsson[50]) und Sunrise (mit Huawei) bauen ihre 5G-Infrastruktur aus. Beide wollen ab 2020 ein flä- chendeckendes 5G-Netz bereitstellen. Auch Salt (mit Nokia) will 5G noch 2019 in Be- trieb nehmen.

Am 15. Oktober 2019 wurde im Bundesblatt die Volksinitiative «Für einen gesund- heitsverträglichen und stromsparenden Mobilfunk» veröffentlicht, wonach 5G- Feldstärken deutlich eingeschränkt werden sollen. Damit begann die eineinhalbjährige Sammelfrist für Unterschriften; wenn 100.000 Stimmberechtigte unterschreiben, wird eine Volksabstimmung durchgeführt, ob diese vorgeschlagene Verfassungsänderung angenommen werden soll.

Am 15. Oktober 2019 wurde beim Bundesamt für Verkehr UVEK eine Petition einge- reicht, die ein Moratorium für die Entwicklung der 5G-Technologie fordert. Insgesamt sammelte die Privatperson Notburga Klett fast 40Ό00 Unterschriften. Laut Klett, verstosse der Bund mit der Einführung von 5G gegen seine Pflicht zum Schutz von Ge- sundheit und Umwelt.

Ende März 2019 wurde in Österreich das erste kommerzielle 5G-Netz in den ersten fünf Gemeinden in Echtbetrieb genommen. Politisch wurde mit der neuen Technologie be- sonders der ländliche Raum adressiert. In der Gemeinde Hohenau an der March wurden die ersten 200 Router vom Anbieter Magenta Telekom ausgegeben.

Als eines der ersten europäischen Länder nimmt Spanien ein 5G-Netz in zunächst 15 Städten in Betrieb. Dies wurde Anfang Juni 2019 von Vodafone-Präsident Antonio Coimbra verkündet. Tests zu Folge werden bereits rund 50 % der Bevölkerung in die- sen Städten, überwiegend in Nordspanien, mit dem kommerziellen 5G-Netz versorgt. Bis 2021 soll es eine komplette Abdeckung für mindestens diese Städte geben. Im Jahr 2025 soll schließlich das 5G-Netz spanienweit zur Verfügung stehen. Der neuseeländische Nachrichtendienst Government Communications Security Bureau (GCSB) untersagt dem Telekommunikationsanbieter Spark New Zealand für den Auf- bau des neuen Mobilfunkstandards 5G Ausrüstung des chinesischen Netzwerkkonzems Huawei einzusetzen. Der GCSB sieht ein signifikantes Netzwerksicherheitsrisiko mit der Möglichkeit der Spionage. Australien untersagte Huawei den Einsatz bereits im Sommer 2018.

In den USA wird die politische Diskussion um 5G im Jahr 2019 stark beeinflusst von den durch Präsident Trump verfügten Sanktionen gegen das chinesische Unternehmen Huawei, das bisher hinsichtlich der Entwicklung und Markteinführung der 5G-Technik weltweit führend ist. Außerdem befürworten Präsident Trump und Vertreter der Indu- strie andere Konzepte für den Netz- Aufbau und Einsatz von 5G als einige prominente Mitglieder der Republikanischen Partei: Während erstere bisher dazu neigen, dies gro- ßen Unternehmen wie AT&T und Verizon zu überlassen, befürworten etwa Newt Gingrich und Karl Rove den Einsatz kleinerer Unternehmen, dies dann auch mit Nut- zung freier Kapazitäten staatlicher militärischer Technik.

Huawei als wichtiger Lieferant der 5G Technologie gilt unter Sicherheitsexperten be- züglich der Cyber- und Datensicherheit als grosses Gefahrenrisiko für den 5G Ausbau in Europa. Huawei ist verpflichtet dem totalitärem chinesichen Regime jedwede Infor- mation preiszugeben. In China ist Huawei führender Hersteller und Ausrüster für digita- le Überwachungssysteme. Chinas Regierung begeht derzeit die größte Menscherechts- verletzung seit dem Holcaust mit der Einkasemierung und Isolierung von ca. einer Mil- lionen Uiguren. Die technologische Abhängigkeit der Welt, insbesondere Europas, von China ist unter diesen Vorraussetzungen politisch und verfassungsrechtlich nicht ver- tretbar für ein demokratisches Europa. Aus diesem Grund ist eine wirtschaftliche Ab- kehr von China altemativlos. Der 5G Ausbau Europas mit europäischen Unternehmen ist die logische Konsequenz. 5G ist für die Digitalisierung Europas strategisch höchst relevant und muss von staatlicher Seite garantiert und gewährleistet werden. 100. Mobilfimkstandard

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis der folgenden Mobilfunkstandards, vor- zugsweise zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Re- gelungs- und Messtechnik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungsgemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen:

Mobilfunkstandard ist ein Kategorie-Begriff und bezeichnet die Normen und Regelun- gen, auf denen die Technologien und Systeme mobiler Kommunikation aufbauen.

Anzeige auf Displays: Die in der Statusleiste (meist am oberen Rand der Displays, Bildschirme bzw. Flachbildschirme) von Mobiltelefonen bzw. Smartphones, Tabletcomputem usw. angezeigten Symbole bzw. Kürzel sind bei den Betriebssystemen Apple iOS, Google Android und Microsoft Windows Phone teilweise unterschiedlich und geben die mögliche Datenübertragungsrate bzw. Modem-Geschwindigkeit, gemes- sen in Bits pro Sekunde wieder:

GSM

-G (bis iOS 7 o, ab iOS 8 GPRS): GPRS, 53,6 kbit/s

-E: EDGE, 4-mal schneller als GPRS, 256 kbit/s

UMTS

-3G: 384 kbit/s

-H (auch 3,5G oder 3G+; bei iOS auch 3G): High Speed Downlink Packet Access (HSDPA), 7,2 Mbit/s[l]

-H+ (bei iOS auch 3G): High Speed Packet Access+ (HSPA+), 42 Mbit/s

LTE

-LTE, bei Android, iOS und Windows je nach Netzanbieter auch 4G: 500 Mbit/s -LTE-A (auch LTE+, 4G oder 4G+): LTE-Advanced 1 Gbit/s[2][3]

5G

-5G: Bis zu 10 Gbit/s Mobilfunkstandards

-Advanced Mobile Phone Service (AMPS)

-CDMA2000, ein in Amerika verwendeter Standard

-Global System for Mobile Communications (GSM)

-HIPERL AN

-IMT- Advanced

-Long Term Evolution (LTE), auch als Evolved UTRAN (E-UTRAN) bezeichnet -Personal Communication Network (PCN), veralteter Begriff für den Mobilfunkstan- dard DCS 1800

-Personal Digital Cellular (PDC)

-Radio Telephone Mobile System (RTMS)

-TETRA

-Tetrapol, Bündelfunkstandard ähnlich TETRA

-Universal Mobile Telecommunications System (UMTS), auch als UTRAN bezeichnet

-WiMAX

Siehe auch

-A-, B-, C-Netz

-CB-Funk

-Funknetz

-Kabellose Übertragungsverfahren

-Mobilfunk, Mobilfunknetz

-Nordic Mobile Telephone (NMT)

-TACS

-Wideband CDMA (WCDMA)

101. Funktechnik

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis der im folgenden beschriebenen Funk- techniksysteme, vorzugsweise zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtechnik, wobei die Frequenzbänder des elektroni- sehen Elementes (E) erfindungsgemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen.

Funktechnik ist ein Begriff für die Methode, Signale aller Art mit Hilfe modulierter elektromagnetischer Wellen im Radiofrequenzbereich (Radiowellen) drahtlos zu über- tragen. Eine Form der drahtgebundenen Nachrichtenübertragung dieser Signale ist die sogenannte Trägerfrequenztechnik.

Anwendungen in Industrie und Medizin, die Hochfrequenz nur als Werkzeug einsetzen (wie z. B. Härte- und Schmelzöfen oder Therapiegeräte), verwenden dagegen in der Regel unmodulierte Radiowellen ohne aufgeprägte Informationen und werden deshalb nicht der Funktechnik zugeordnet.

Die Existenz von Radiowellen wurde 1864 von James Clerk Maxwell auf Grund theore- tischer Überlegungen vorhergesagt und am 11. November 1886 von Heinrich Hertz zum ersten Mal experimentell bestätigt. Der Name„Funk“ geht auf den Begriff Funke zurück. Die ersten Sendeanlagen arbeiteten mit Funkenstrecken - durch die starken, oberwellenreichen Strom- und Spannungsimpulse entstanden hierbei auch die ge- wünschten Funkwellen. Die erste Funkverbindung gelang Guglielmo Marconi 1895 mit einem Knallfunkensender und dem Nachbau eines Empfängers von Alexander Ste- panowitsch Popow über eine Entfernung von etwa fünf Kilometer. Diese Pioniere der Funktechnik gelten heute als die ersten Funkamateure.

Diese primitive und heute unerwünschte Erzeugung von Funkwellen erlaubte nur Nach- richtenübermittlung durch Morsezeichen, beispielsweise von der Großfunkstelle Nauen zu den Schiffen der kaiserlichen Marine oder zu den Funkstationen in Deutsch- Südwestafrika. Erst nach der Entdeckung der Oszillatorschaltung mit einer Elektronen- röhre durch Alexander Meißner und die darauf aufbauenden Entwicklungen nach 1913 konnten weitere Modulationsarten entwickelt werden. Voraussetzung dafür ist eine zu- nächst konstante Ausgangsleistung, die bei Übertragung von Ton, Bild und später auch Daten gezielt geändert werden kann. Die erste Sprachnachricht wurde im Jahr 1900 von Reginald Fessenden gesendet. Die erste Rundfunkübertragung fand zum Weihnachtsfest 1906 statt. Fessenden las die Weihnachtsgeschichte aus der Bibel vor. Die Übertragung war in 500 Metern Umkreis zu empfangen.

Die Funktechnik basiert auf der Tatsache, dass man ein Trägersignal (elektromagnetische Welle) - eine zunächst sinusförmige Wechselspannung konstanter Amplitude - mittels einer Modulationsart durch ein Nachrichtensignal gezielt verändern kann. Dabei wird beispielsweise die Frequenz oder die Amplitude der Wechselspan- nung im Rhythmus des Signals geändert. Die modulierte Welle wird über eine Antenne abgestrahlt und auf der Empfängerseite durch eine weitere Antenne empfangen. Durch Demodulation wird die ursprüngliche Nachricht wiedergewonnen und kann dann hörbar oder sichtbar (Fernsehen) gemacht oder anders weiterverarbeitet werden. Der Vorteil gegenüber konkurrierenden Übertragungsarten ist, dass

-es sehr viele unterschiedliche Trägerfrequenzen gibt, die sich gegenseitig nicht beein- flussen

-keine elektrischen Kabel zwischen Sender und Empfänger verlegt werden müssen -die Anzahl der Funkempfanger praktisch keinen technischen Einschränkungen unter- liegt

-Sender und Empfänger sehr gut getarnt und u. U. kaum entdeckt werden können Nachteilig ist, dass

-man die Sendungen abhören kann, ohne entdeckt zu werden. Die Nutzung der übermit- telten Daten kann aber durch Verschlüsselung erschwert werden

-die Kommunikation durch Störsender erschwert oder unmöglich gemacht werden kann -der technische Aufwand erheblich ist, was aber durch Fortschritte der Mikroelektronik immer weniger ins Gewicht fällt -im gesamten Äusbreitungsbereich des Senders jedes Frequenzband nur von einem ein- zigen Sender genutzt werden kann, sofern nicht Techniken wie Richtfunk, Gleichwel- lennetze oder Zeitmultiplexverfahren eingesetzt werden Beim Hörfunk und Fernsehen sendet ein Teilnehmer, der Radio- oder Fernsehsender, und alle anderen Teilnehmer auf diesem Kanal empfangen nur, ohne selbst zu senden. Die Übertragung ist unidirektional - sie geht nur in eine Richtung. Beim Sprechfunk oder beim Morsen senden mehrere Personen abwechselnd auf demselben Kanal (meist einer Frequenz oder einem Frequenzpaar), so dass Kommunikation in beide Richtungen möglich ist. Im Gegensatz zur unidirektionalen Übertragung (z. B. Rundfunk) ist so ein Informationsfluss in beiden Richtungen möglich. Neben Morsesignalen und Sprache werden auch stehende und bewegte Bilder, zum Beispiel Wettersatellitenbilder oder Fernsehen, und Daten aller Art übertragen. In der jüngeren Geschichte der Funktechnik werden häufig direkt von den Geräten Kommunikationsprotokolle wie GSM, UMTS (beides für Mobiltelefone), IEEE 802.11 (drahtloses Computemetzwerk) oder Bluetooth (drahtlose Kommunikation mit digitalen Peripheriegeräten) verwendet. Obwohl sich die Technik heutzutage stark von der von 1920 unterscheidet, erhielt sich der namensgebende Wortbestandteil Funk in Begriffen wie Rundfunk, Mobilfunk, Hör- funk usw. sowie im Firmennamen Telefünken bis heute.

Eine neue Entwicklung der Funktechnik wurde durch extrem energiesparende Miniatu- risierung möglich: batterielose Funktechnik für die Anwendung in Schaltern und Senso- ren. Auch bei der Vernetzung verschiedenartiger Geräte wird die batterielose Funktech- nik bereits eingesetzt. Die für den Sendeprozess erforderliche Energie wird dabei durch Energy Harvesting aus der Umgebung gewonnen (z. B. aus Tastendruck, Temperatur- differenz, Licht oder Vibrationen). Da sich elektromagnetische Wellen oberhalb etwa 60 MHz physikalisch gesehen quasi- optisch ausbreiten, werden Relaisstationen benötigt, wenn um den Erdball (Kugel) ge- funkt werden soll. Diese Aufgabe übernehmen heutzutage z. B. Satelliten.

Gase (Erdatmosphäre) können den Signalweg beeinträchtigen. Dabei kommt es zu einer Vielzahl von Effekten, die von der benutzten Frequenz, der Dichte des Gases, der Ioni- sation und der Schichtung im Signalweg abhängig ist. Eine Übertragung durch flüssige und feste Medien führt zu einer starken Dämpfung des Signals.

Bei Frequenzen größer als etwa 100 MHz treten zunehmend Störungen durch Reflexio- nen an Mauerwerk, Metallbauwerken, Drähten oder Türmen auf. Die Reflexionen füh- ren zu zeitlich versetztem Doppelempfang mit Signalverfälschungen und Gruppenlauf- zeitverzerrungen. Es kommt zu teilweiser oder vollständiger Auslöschung gegenphasi- ger Signalanteile. Die Bewegungen von Sende- oder Empfangsantenne oder anderen Objekten im Signal weg können die Übertragung beeinträchtigen (Anwendung beim Passivradar und in Radar-Bewegungsmeldem!). Es kommt zu Geisterbildem beim Fernsehempfang und zu Problemen bei der GPS-Nutzung.

-Aurora (Streuung und Reflexion an Nordlicht-Ionisationsschichten, siehe Polarlicht, Einfluss auf technische Einrichtungen)

-Echo-Empfang („Geisterbilder“ durch verschiedene, durch Reflexion verursachte Empfangswege)

Effekte bei der drahtlosen Ausbreitung in der Erdatmosphäre

-Fading (Schwund, sich stark verändernde Feldstärke)

-Flatter-Fading (Schwund mit schnell wechselnder Feldstärke)

-Maximum Usable Frequency (höchste nutzbare Kurzwellenfrequenz, die noch an der Ionosphäre reflektiert wird)

-Meteorscatter (Streuung und Reflexion an ionisierten Meteoriten-Leuchtspuren) -Mögel-Dellinger-Effekt, englisch Sudden ionospheric disturbance (SID)

-Nahschwund und Tagesdämpfung im Mittelwellenbereich -Reflexion an der Ionosphäre

-Reflexion an der sporadischen E-Schicht

-selektiver Trägerschwund

-Tropo- Ausbreitung (Überreichweite durch Reflexion und Tunnelung in Inversions- schichten)

-Durch die Auswahl der Modulationsart und der Betriebsart lassen sich viele Störungen erheblich vermindern.

Es gibt zahlreiche Anwendungen der Funktechnik, amtlich werden sie in Funkdienste eingeteilt. Beispiele sind:

-Amateurfunk

-Betriebsfunk

-BOS-Funk (z. B. Polizeifunk)

-Datenfunk (auch für die Mobiltelefonie)

-Flugfunk

-Funknavigation

-Funkfernsteuerung (Haustechnik, Forschung, Industrie und Modellbau)

-Jedermannfunk (CB-Funk, SRD, PMR446, DMR446)

-Mobiler Seefunkdienst

-RFID (radio frequency Identification device, Funkchips)

-Rundfunk (Hörfunk und Fernsehen)

-Telemetrie

-Zugfunk

Je nach deren Bedürfnissen kommen vielfältige technische und organisatorische For- men zum Einsatz wie

-Analoge oder digitale Signalübertragung

-Ein- oder Zweirichtungsbetrieb

-Freifunk

-Funknetze

-Kommunikationssatelliten

-Richtfunk -Terrestrische Übertragung

Siehe auch

Indoor-Empfang

102. Störsender

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Ele- mentes (E) zur Verwendung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis von vorzugsweise strategischen Stör- sendern, vorzugsweise zur Verwendung des elekronischen Elementes (E) in der Steue- rungs -, Regelungs- und Messtechnik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungsgemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen.

Die Frequenzbänder des elektronischen Elementes (E) weisen erfindungsgemäß Fre- quenzbandbreiten zwischen 100MHz und 100GHz auf.

Ein Störsender macht den einwandfreien Empfang eines Funksignals (etwa von Radio, Fernsehen, Mobilfimk oder GPS) schwierig oder unmöglich. Der Störsender sendet da- bei, genau wie der zu störende Sender, elektromagnetische Wellen aus und überlagert die ursprünglichen Wellen ganz oder teilweise. Er kann auf der gleichen oder einer be- nachbarten Frequenz des gestörten Empfängers arbeiten. Dabei sind die Feldstärke, die Modulation des Störsenders sowie die Art der gestörten Nachricht von Bedeutung.

Eine technische Fehlfunktion kann einen Störsender erzeugen, dieser muss dann repa- riert oder abgeschaltet werden, oder die Störquelle technisch in Kauf genommen wer- den. So werden als Störsender auch sogenannte Schwarzsender oder auch manche legal betriebene Sender bezeichnet, die mit ihrem Signal den Empfang eines anderen Senders stören. Insbesondere im Bereich der Lang-, Mittel- und Kurzwelle treten derartige Stö- rungen häufig beim Empfang entfernter Sender auf, da in diesen Frequenzbereichen große Reichweiten möglich sind und weniger freie Kanäle zur Verfügung stehen, als man Sender betreibt. Eine gewisse Abhilfe schaffen Richtantennen, sowohl sender- als auch empfängerseitig. Schlecht abgeschirmte bzw. schlecht entstörte Geräte können so ebenfalls zum Störsender werden.

Das Problem von Maschinen, die den Rundfunkempfang störten, wurde Ende der 1920er Jahre virulent, als die Senderdichte drastisch zunahm und immer mehr Hörer sich bei den Reichsrundfunkanstalten und Postbehörden darüber beschwerten, sie könn- ten immer, wenn die Motoren in der Nachbarschaft liefen, nichts mehr im Radio hören. Sie gingen mit dem Argument vor Gericht, dass sie für ihre Rundfunkgebühr keinen Gegenwert bekämen. Das erste Grundsatzurteil dazu fällte Ende 1931 das Landgericht Braunschweig. Es verurteilte den Inhaber einer Werkstatt mit störenden Motoren ko- stenpflichtig zur Unterlassung der Störungen. Lange Zeit hatten sich die Fabrikanten dagegen mit dem Argument gewehrt, die hohen Kosten für die Entstörungstechnik ma- che den Betrieb der Maschinen unrentabel.

Strategische Störsender

Auto mit Störsendern des Secret Service zum Schutz des davor befindlichen Dienstwa- gens des Präsidenten der Vereinigten StaatenStörsender können gezielt genutzt werden, um anderen das Benutzen der Frequenz oder eines ganzen Bandes zu erschweren, hier spricht man dann auch von einem Jammer oder Noise Jamming. Diese senden dann ein breitbandiges Rauschen oder Pulse aus. So werden Störsender im militärischen Umfeld als Teil der so genannten elektronischen Gegenmaßnahmen schon lange eingesetzt.

Mobile Störsender können beispielsweise 1 bis 2 kW Sendeleistung auf 6000 Frequen- zen erreichen. Auch im zivilen Bereich werden Störsender eingesetzt. Zum Beispiel dürfen deutsche Justizvollzugsanstalten und Jugendstrafanstalten technische Geräte be- treiben, die„Frequenzen stören oder unterdrücken, die der Herstellung oder Aufrecht- erhaltung unerlaubter Funkverbindungen auf dem Anstaltsgelände dienen“. Dabei müs- sen die Rahmenbedingungen der Bundesnetzagentur beachtet werden. Sofern die Nut- zungsbeeinträchtigungen (außerhalb des Anstaltsgeländes) nicht erheblich sind, bedarf es dazu keiner Frequenzzuteilung (§ 55 Abs. 1 Satz 5 TKG). Im August 2016 wurde bekannt, dass in der Justizvollzugsanstalt St. Pölten in Öster- reich seit einigen Wochen Störsender gegen Mobiltelefonie getestet wurden; laut Voll- zugsdirektion im Justizministerium mit einigem Erfolg, sodass nur Kontaktaufnahmen unter Gefangenen verhindert werden und doch Mobiltelefonie im Freien nicht gestört wird. Es soll noch ein zweites System auf seine Eignung geprüft werden. Die 27 JVAs in Österreich mit solchen Handyblockem auszustatten, wird auf einige Millionen Euro Kosten geschätzt. Die Kommunikation der Justizwachebeamten über Funkgeräte wird dabei nicht beeinträchtigt. Pro Monat werden österreichweit in den Justizanstalten etwa 60 bis 70 Handys bei Häftlingen entdeckt.

Technische Möglichkeiten: Die Störungen richten sich gegen verschiedene Signale:

-Im militärischen Bereich insbesondere in den Spektralbereichen Radar, IR und UV -Das Global Positioning System kann mit einem GPS-Jammer blockiert werden.

-Jammer werden auch verwendet, um die Fernzündung von Bomben zu verhindern. Die pakistanische Oppositionsführerin Benazir Bhutto überstand 2007 einen Anschlag un verletzt, da an ihrem Bus befindliche Störsender die Femauslösung einer in einem ge- parkten Auto platzierten Bombe verhinderten. Die Bombe explodierte erst, als sich das Auto nicht mehr in der Reichweite der Störsender des fahrenden Busses befand.

-Mobiltelefone

-Störung des Auslösesignals für die Kamera eines mobilen Geschwindigkeits- Messgerätes.

-Störsender gegen RFID-Scanner.

-Einbrecher verwenden Jammer, um Funkvideoüberwachungssysteme auszuschalten. -Diebe verwenden Jammer, die das Verriegeln eines Fahrzeugs verhindern, indem das legitime Verriegelungssignal des Funkschlüssels durch den Störsender überlagert und so funktionslos wird. Anschließend können sie aus dem vermeintlich verriegelten, tat- sächlich jedoch offenen Fahrzeug Wertgegenstände stehlen. [5][6]

-Störsender zur Abwehr von Drohnen (Quadrocopter), Anwendung z. B. an Flughäfen, um Kollisionen mit Flugzeugen zu vermeiden. [7] Auch bei politischen Großveranstal- tungen können Drohnen, da sie z. B. Sprengstoff transportieren könnten, ein Sicher- heitsrisiko darstellen.

Auch in totalitären Staaten wurden und werden Störsender verwendet, um zu verhin- dern, dass die Bevölkerung fremde Rundfunk- oder Fernsehsendungen empfangen kann. Um den Vorwurf der Unterdrückung ausländischer Information zu vermeiden, werden häufig starke Sender eigener Programme auf den zu störenden Frequenzen ein- gesetzt.

Störsender wurden zum Beispiel in der Zeit des Nationalsozialismus zum Stören der deutschsprachigen Sendungen der BBC aus London oder in den Staaten des Ostblocks zum Stören der Sendungen von Radio Free Europe/Radio Liberty eingesetzt. Es ist je- doch nie gelungen, das ganze Gebiet des jeweiligen Staates abzudecken. In der DDR wurde in den 1980er Jahren ein Störsender gegen den linksaltemativen UKW-Sender Radio 100 eingesetzt.

Die USA störten am 23. und 24. Januar 2007 den Empfang des Satelliten Eutelsat Hot- bird 8, weil sie fälschlicherweise annahmen, der islamistische Sender az-Zaurä’ würde über diesen Satelliten ausgestrahlt. Betroffen waren neben zahlreichen Radio- und Fernsehsendern auch die Nachrichtenagenturen Agence France-Presse und Schweizeri- sche Depeschenagentur.

Störungen durch eine unerlaubte Aussendung eines Sendesignals sind generell verbo- ten. Sie werden in Deutschland durch die Bundesnetzagentur, die Nachfolgerin des früheren Funkentstördienstes, in der Regel auf Anfrage des Betroffenen ermittelt. Der Verursacher wird kostenpflichtig auf die Einhaltung der gesetzlichen Grenzwerte ver- pflichtet oder die Störquelle wird beschlagnahmt. Es können dann ggf. zusätzlich weite- re juristische Maßnahmen ähnlich wie bei der Verfolgung von Schwarzsendern erfol- gen. Bei dieser rechtlich umstrittenen Form von "Störsendern" werden lokale oft auch recht leistungsstarke legale Rundfunksender oder Fernsehsender verwendet, um leistungs- schwächere Femsender auf der gleichen oder einer benachbarten Frequenz vor Ort zu überdecken (siehe Interferenz) und damit zu stören. Die eigentliche Störung tritt bei dieser Form von "Störsendern" nur bei den Empfängern vor Ort auf, wenn diese den gewünschten Femsender aufgrund von technischen Gegebenheiten, wie etwa einer mangelnden Selektivität oder Übersteuerung durch Ortssender, schlecht empfangen können.

-Die Mittelwellensender Mühlacker des SDR (heute SWR) und Wöbbelin des ehemali- gen Rundfunks der DDR benutzten die gleiche Frequenz. Der Sender Wöbbelin war auch noch nach der deutschen Wiedervereinigung, zuletzt für die Verbreitung von Me- garadio, auf der gleichen Frequenz wie der Sender Mühlacker (576 kHz) in Betrieb. -Offensichtlich aus politischen Gründen wurden vom Rundfunk der DDR die Frequen- zen 557 kHz (Sender Greifswald), 575 kHz (Sender Leipzig) und 1430 kHz (Sender Dresden) belegt, um die Sendungen des SFB (566 kHz), des Saarländischen Rundfunks (1422 kHz) und von Radio Luxemburg (1439 kHz) bei mangelnder Selektivität des Mittelwelle-Empfängers zu stören. Hierbei wurden die international vereinbarten und koordinierten Frequenzen genutzt und auch das international zulässige Mittelwelle- Frequenzraster in Europa von 9 kHz eingehalten.

-Die Langwellensender Zehlendorf des Deutschlandradio Kultur und von Europe 1 in Felsberg-Berus lagen früher beide auf der Frequenz 180 kHz, die Frequenzen wurden jedoch nach und nach verschoben, liegen aber immer noch, obwohl sie eine Bandbreite von 9 kHz beanspruchen, nur um 6 kHz auseinander (Sendefrequenz von Deutschland- radio in Zehlendorf 177 kHz und 183 kHz von Europe 1).

103. Mobiltelefon

Weitere Ausführungsformen für die Erfindung: Verwendung eines elekronischen Elementes (E) für ein Element zur Verwendung als ein Mobiltelefon- und/oder Smartphone und/oder Mobiltelefon- und/oder Smartphone- zubehörelement und/oder Verwendung des elektronischen Elementes (E) zur Verwen- dung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis eines Mobiltelefons und/oder Smartphones, vorzugsweise zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtechnik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungs- gemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen, wobei das Mobil- telefon und/oder Smartphone vorzugsweise wenigstens einen Chipkartenleser- und/oder ein Speicherkartenlesegerät aufweist, mit wenigstens einem der im Folgenden aufge- führten technischen Merkmale:

Ein Mobiltelefon, im deutschsprachigen Raum auch Handy, Funktelefon, GSM-Telefon (nach dem Mobilfunkstandard GSM), in der Schweiz auch Natel genannt, ist ein tragba- res Telefon, das über Funk mit dem Telefonnetz kommuniziert und daher ortsunabhän- gig eingesetzt werden kann. Im Jahre 2013 wurden weltweit erstmals mehr intemetfähi- ge Mobiltelefone mit berührungsempfindlichen Bildschirmen (Smartphones) als her- kömmliche Mobiltelefone verkauft. Die drei größten Hersteller von Mobilfunkgeräten weltweit waren im Jahr 2015 Samsung, Apple und Huawei, danach folgten Lenovo, Xiaomi, ZTE, LG, Oppo, Coolpad und TCL- ALCATEL. Die herkömmlichen Mobilte- lefone werden heute überwiegend als Feature-Phones für einen kleinen Markt verkauft, zum Beispiel in Entwicklungsländern und Schwellenländem oder für Menschen, die möglichst einfach bedienbare Geräte mit langer Akkulaufzeit nutzen wollen.

Vor den Geräten, die heute als Mobiltelefon bezeichnet werden, gab es einige Vorläu- fer. Die Entwicklung des Mobilfunks begann 1926 mit einem Telefondienst in Zügen der Deutschen Reichsbahn und Reichspost auf der Strecke zwischen Hamburg und Ber- lin. Dieser Telefondienst wurde nur den Reisenden der 1. Klasse angeboten.

Schon früh äußerten Künstler und Schriftsteller ihre Phantasien über die möglichen Auswüchse der Mobiltelefonie. So beschreibt Gustav Hochstetter 1913 einen gestres- sten Firmenchef, der auf ärztlichen Rat durch Wandern in Schweigsamkeit wieder Kraft tanken soll. Da hört er in der Abgeschiedenheit der Berge plötzlich etwas aus seinem Rucksack - seine Frau ruft ihn an: ,„Ja, ja, Ludwig, da staunst du? Eine Menge Geld hat das Ding gekostet. Eine ganz neue Erfindung: das tragbare, drahtlose Telefon in Miniaturformat.“ - Gustav Hochstetter

1926 entwarf der Zeichner Karl Arnold im Simplicissimus ein visionäres Bild vom Sinn und Unsinn des mobilen Telefonierens auf offener Straße in dem Bild„Drahtlose Tele- phonie“. Aus dem Jahr 1931 stammt eine weitere literarische Schilderung einer Mobil- telefon-Utopie. Sie findet sich in Erich Kästners Kinderbuch Der 35. Mai oder Konrad reitet in die Südsee:„Ein Herr, der vor ihnen auf dem Trottoir langfuhr, trat plötzlich aufs Pflaster, zog einen Telefonhörer aus der Manteltasche, sprach eine Nummer hinein und rief: , Gertrud, hör mal, ich komme heute eine Stunde später zum Mittagessen. Ich will vorher noch ins Laboratorium. Wiedersehen, Schatz! Dann steckte er sein Ta- schentelefon wieder weg, trat aufs laufende Band, las in einem Buch und fuhr seiner Wege.“ - Erich Kästner

Die ersten Mobilfunkgespräche wurden über in Kraftfahrzeugen montierte Endgeräte - Autotelefone - im Jahr 1946 möglich. Die US-Firma Bell Telephone Company bot ih- ren Mobile Telephone Service an, über den am 17. Juni 1946 in St. Louis die ersten Ge- spräche geführt wurden; ab 2. Oktober desselben Jahres war ein Autotelefonservice der Illinois Bell Telephone Company in Chicago verfügbar.

Die ersten im A-Netz verwendbaren Autotelefone gab es in West-Deutschland ab 1958, wobei um 1968 eine Abdeckung von 80 % des Gebietes der Bundesrepublik Deutsch- land erreicht wurde. Die Geräte waren zunächst wegen der für die Funktechnik verwen- deten Vakuumröhren recht groß, wurden aber mit Einführung der Transistoren bald sehr viel kleiner. Gespräche wurden handvermittelt, die Gerätepreise lagen bei etwa 50 % des Wagenpreises. Ab 1972 wurde in der Bundesrepublik auf das B-Netz umgestellt, das erstmals über die Möglichkeit verfugte, Selbstwählverbindungen herzustellen. 1973 stellte ein Entwicklerteam bei Motorola um Martin Cooper und Chefdesigner Rudy Krolopp den ersten Prototyp eines Mobiltelefons her.„Für das Innenleben plün- derten die Ingenieure von Motorola damals UKW-Radios und kombinierten diese mit einem leistungsfähigen Stromspeicher, dem Metall-Hydrid- Akku“. Im Oktober 1973 meldeten sie ein Patent an. Cooper machte am 3. April 1973 den ersten Anruf über ein Mobiltelefon, bei dem er seinen Rivalen bei den Bell Labs anrief.

Ab 1974 gab es auch in Österreich ein automatisch vermitteltes B-Netz. Sieben Jahre später hatte es 1000 Teilnehmer. Das Aufenthaltsgebiet (Österreich war in etwa 3 Ge- biete mit jeweils eigener Vorwahl geteilt) eines Teilnehmers musste bekannt sein, um ihn anrufen zu können. 1975 wurde in der Schweiz das Nationale Autotelefonnetz (Natel) eingeführt. Ab 1983 folgte Natel B; im selben Jahr wurde das bei Motorola seit 1973 entwickelte erste kommerzielle Mobiltelefon„Dynatac 8000x“ offiziell vorge- stellt.

Ab 1985 gab es in Deutschland und Österreich das kleinzellige analoge C-Netz. Es er- möglichte eine geringere Sendeleistung der Telefone und damit kleinere, nicht mehr praktisch an Autoeinbau (auch im Kofferraum) gebundene Geräte.„Portables“, kleine Kistchen mit Tragegriff und einem angeschlossenen Telefonhörer sowie einer längeren Antenne, kamen auf den Markt. 1987 wurde in der Schweiz das Autotelefonnetz Natel C eingeführt.

Durch die Einführung flächendeckender digitaler Mobilfunknetze (D-Netz Ende der 1980er/ Anfang der 1990er Jahre in Deutschland, Österreich und der Schweiz) konnte die benötigte Batterieleistung der Mobiltelefone und damit auch deren Größe erneut vermindert werden. 1992 wurde in den USA das erste GSM-fähige Mobilgerät von Mo- torola, das International 3200, vorgestellt. Im Sommer 1992 nahmen in Deutschland die Netze Dl (Betreiber: DeTeMobil Deutsche Telekom Mobilfunk) und D2 (Betreiber: Mannesmann Mobilfunk) den Betrieb auf. In der Schweiz wurde Natel D auf GSM- Basis lanciert. 2001 nahm die britische Manx Telecom auf der Isle of Man das weltweit erste UMTS-Netz in Betrieb; in Deutschland ist UMTS seit 2004 kommerziell verfüg- bar. Der 3G-Standard UMTS zeichnet sich durch deutlich erhöhte Datenraten aus, wo- durch intemetbezogene Anwendungen, vor allem auf Smartphones, erheblich beschleu- nigt werden. Der vorherige Trend, die Geräte immer mehr zu verkleinern, wurde durch größere Geräte mit großen Touchscreen-Bildschirmen teilweise umgekehrt. Ende 2009 wurden die ersten Mobilfunknetze der vierten Generation (4G) verfügbar; mit LTE und später LTE-Advanced erhöhten sich wiederum die maximal möglichen Datenraten, oh- ne dass die 4G-Netze bisher für reine Sprachdienste nutzbar sind.

Aufbau und Technik: Wie das drahtgebundene Telefon besteht das Mobiltelefon aus ei- nem Lautsprecher, einem Mikrofon, einem Bedienteil (Tastatur und Anzeige) und einer Steuerung (meist ein Mikrocontroller). Zusätzlich hat es ein Funkteil (Sendeempfänger, Antenne) und eine eigene Stromversorgung (meist einen Akkumulator). Bei GSM- Telefonen ist zum Betrieb generell eine SIM-Karte notwendig (bis 2009 ausgenommen Notrufnummem), die zur Identifizierung gegenüber dem Mobilfunknetz genutzt wird.

Mobiltelefone in Europa funktionieren heutzutage nach dem GSM-Standard. Sie benut- zen Frequenzen um 900 MHz (D-Netz) beziehungsweise 1800 MHz (E-Netz). Erste Te- lefone die Dualband-GSM, also D- und E-Netz gleichermaßen unterstützen kamen ge- gen Ende der 1990er Jahre auf. Das erste GSM-Telefon mit Dual-Band Technik war das Motorola 8900. [15] Triband-Mobiltelefone können zusätzlich auf 1900 MHz oder 850 MHz operieren, diese Frequenzen werden hauptsächlich in den USA genutzt. Quadband-Mobiltelefone beherrschen alle vier Frequenzen. Während die GSM- Basisstationen für Mobiltelefone Sendeleistungen von bis zu 50 Watt (D-Netz) bzw. 10 Watt (E-Netz) haben,[16] kommen Mobiltelefone mit Sendeleistungen von max. 2 W (D-Netz) beziehungsweise 1 W (E-Netz) aus. Für die Übertragung wird als Modulati- onsart GMSK (Gaussian Minimum Shift Keying, eine weiterentwickelte, optimierte Version der FSK) verwendet.

In der nächsten (dritten) Generation der Mobilfunkgeräte gibt es zwei konkurrierende Standards: Universal Mobile Telecommunications System, abgekürzt als UMTS, als ei- ne Weiterentwicklung von GSM sowie den Standard CDMA2000, der vor allem in den USA weit verbreitet ist. Sowohl UMTS als auch CDMA2000 basieren auf Code Divisi- on Multiple Access (CDMA), sind aber zueinander nicht kompatibel. Beide arbeiten bei Frequenzen um 1800 bis 1900 MHz, benutzen viele kleine Funkzellen und sind für hö- here Datenübertragungsgeschwindigkeit und höhere Nutzerzahl optimiert. Wegen der kleineren Funkzellen und bedingt durch weiterentwickelte Modulationsverfahren konn- te die Sendeleistung der Mobiltelefone gegenüber GSM auf 0,125-0,25 W reduziert werden. Siehe auch: Femtozelle

Betriebssysteme: Ältere GSM-Telefone (wie z. B. das im obigen Bild gezeigte Siemens S25) haben meist nur ein einziges Betriebssystem, welches alle Aufgaben wahmimmt. Moderne Smartphones verwenden hingegen ein Echtzeit-Hauptbetriebssystem auf wel- chem die Benutzeranwendungen ausgeführt werden, und das sogenannte Baseband- Betriebssystem, welches die eigentliche Kommunikation mit dem Handynetz über- nimmt. Das Baseband-Betriebssystem ähnelt in der Funktionsweise einem herkömmli- chen Nicht-Smartphone-Betriebssystem, hat jedoch üblicherweise keine Benutzerober- fläche und läuft im Hintergrund auf einem eigenen Prozessor und Speicher getrennt vom Hauptbetriebssystem.

Das Hauptbetriebssystem des Mobiltelefons wird bei Smartphones meist nicht vom Hersteller produziert, sondern in Lizenz betrieben. Das unter Smartphones mit Abstand verbreitetste Betriebssystem ist Android. Weitere verbreitete Systeme sind iOS von Apple und das auf Windows NT basierende Windows Phone von Microsoft. Auf her- kömmlichen Nicht-Smartphones beziehungsweise klassischen Handys wird meist ein proprietäres Betriebssystem des Herstellers verwendet. Andere Betriebssysteme führen eher ein Nischendasein und konnten sich am Markt nicht durchsetzen. Dazu gehören unter anderem das erst seit 2013 verfügbare Firefox OS und die abgekündigten Systeme Bada, Symbian sowie Series 40 bzw. Asha. Einige wenige Mobiltelefone laufen mit linuxbasierten Betriebssystemen (z. B. Sailfish OS, Maemo, MeeGo und Tizen), zu de- ren Weiterentwicklung einige Firmen aus dem Mobilfunkbereich 2007 die LiMo Foun- dation gegründet haben. Die Entwicklung wurde jedoch weitestgehend eingestellt. Der Übergang von Smartphones zu PDAs und Tablets ist fließend (siehe Phablet/Smartlet).

Schnittstellen: Ein Mobiltelefon verfügt als Schnittstellen im Allgemeinen über:

-mindestens ein Modem (GSM, 3G oder LTE bei volldigitalen Mobiltelefonen), mit dem die Kommunikation zwischen Endgerät und Mobilfunknetz erfolgt. Bei vielen Te- lefonen können über das Modem zusätzlich Textnachrichten verschickt und auf das In- ternet zugegriffen werden. Mitunter kann das Modem auch in den vorherigen Modi funken, selten auch gleichzeitig, oder das Mobiltelefon besitzt ein zweites Modem. -Kabelgebundene Schnittstelle ist meist eine USB-Schnittstelle. Ältere Mobiltelefone haben auch proprietäre Kabelschnittstellen für intelligentes Zubehör (z. B. Nokia Pop- Port) oder Anschlüsse für eine Halterung in Kraftfahrzeugen.

-Infrarot war bis zu seiner Verdrängung durch effizientere Datenübertragungsstandards bei Mobiltelefonen verbreitet. Als leistungsfähigere Schnittstellen für den Nahbereich sind bei Mobiltelefonen oftmals Bluetooth, W-LAN und NFC im Einsatz.

-Vor allem bei Smartphones anzutreffen sind eine analoge Audioschnittstelle (meist ein 3,5 mm-Klinkenanschluss) und eine Videoschnittstelle (Composite- Video oder Mini- HDMI-Anschluss).

-Zum Laden der Akkus besitzt ein Handy entweder eine extra Ladebuchse, oder es wird der USB-Anschluss hierzu mitverwendet. Mitunter kann auch drahtlos mittels magneti- schem Wechselfeld geladen werden (z. B. Qi)

Ladegeräte: Die Ladegeräte unterscheiden sich von Hersteller zu Hersteller. Auf Druck der Europäischen Union vereinbarten alle großen Mobiltelefon-Hersteller (außer Apple) ab 2010 die Einführung eines gemeinsamen Standards für Ladegerätstecker auf der Grundlage des Micro-USB-Steckers. Damit können zukünftig alle neueren Mobiltele- fone mit dem gleichen Ladegerät geladen werden.

Seit 2016 wird vermehrt auch statt eines Micro-USB- ein USB-C- Anschluss verbaut, bei dem die Stecker in beliebiger Orientierung verwendbar und weitere Funktionen in- tegrierbar sind. Ab 2017 müssen alle in der Europäischen Union verkauften Mobiltele- fone und Smartphones sowie voraussichtlich auch andere kleinere mobil nutzbare Gerä- te, wie zum Beispiel Tablet-PCs, über einheitliche Ladegeräte versorgt werden können.

Übliche Bauformen

-(Candy-)Bar/Barren/Riegel - klassische Bauweise, die der Form eines Schokoriegels (englisch candy bar) ähnelt, beispielsweise Nokia 6230. Mobiltelefone, deren Tastatur von simplen Klappen oder Schiebemechanismen ohne weitere Funktion geschützt sind, zählt man zu den„Candybar“-Telefonen wie das Nokia 7110 oder das Siemens S25. -Flip/Clamshell/Klapphandy - zweigeteiltes Mobiltelefon mit einem Scharnier in der Mitte. Im aufgeklappten Zustand trägt der obere Teil meist das Display, der untere die Tastatur. Zusammengeklappt liegen beide Teile gegenüber und werden auf diese Weise geschützt. Beispiel: Motorola RAZR.

-Jack-Knife - horizontales Drehgelenk, beispielsweise Sony Ericsson W550i

-Slider (Schiebehandy) - Display und Bedientasten werden vertikal über die Wähltasten hochgeschoben, beispielsweise Samsung SGH D500.

-Swivel-Klapptelefone - mit drehbarem Bildschirm, beispielsweise Samsung SGH- P900.

-Touch Phones - Smartphones, die mittels eines Touchscreen-Displays und ggf. einer als Multi-Touch bezeichneten Technik vorwiegend mit den Fingern gesteuert werden. Bereits 1992 stellte IBM das erste Mobiltelefon mit Touchscreen vor. [24] Andere Quel- len zählen Mobiltelefone mit berührungsempfindlichen Bildschirmen zur Candy-Bar- Bauform.

Spezialformen

-Armbandmobiltelefon oder Handyuhr

-Mobilfunk-GSM-Tischtelefone - herkömmlichen schnurgebundenen Festnetztelefonen nachgebaut - auch diese sind wie GSM-Gateways vornehmlich zum stationären Betrieb geeignet. In Deutschland wurde etwa das Modell GDP-02 des tschechischen Herstellers Jablotron von 02 und Vodafone vermarktet. -Mobilfunk-Gateways - Sonderformen von Mobilfunk-Endgeräten zum stationären Be- trieb, die den Anschluss von Telefonanlagen und herkömmlichen Festnetztelefonen er- möglichen

-Kombinierte Bauformen - Einige Endgeräte, meist aus dem Segment„Experimental“ oder„Fashion“, sind aus verschiedenen Bauformen mit kombinierten Klapp-, Dreh-, oder Schiebekonstruktionen konstruiert.

Nach Einzug der solarbetriebenen Mobiltelefon-Ladestationen wurde bereits im Jahr 2001 von der südkoreanischen Firma„CR Telecom“ ein Solar-Mobiltelefon vorgestellt. Die Ladezeiten entsprachen in etwa den Gesprächszeiten, ein effektives Laden der Ge- räte war aber nur bei einfallendem Sonnenschein möglich. Im selben Jahr stellte das Fraunhofer-Institut für Solare Energiesysteme den Prototyp eines „Siemens-C25“- Mobiltelefons mit solarbetriebenem Akku vor. Diese neuartigen Module waren zwar kostengünstig, aber auch sie lieferten zu wenig Energie für akzeptable Gesprächszeiten. Mobiltelefone ermöglichen es meist, Textnachrichten, eventuell auch kombiniert mit multimedialen Inhalten, zu versenden.

Das„Short Message Service“ ermöglicht kurze Textmitteilungen von einer Länge bis zu 160 Zeichen. Die erste short message wurde im Dezember 1992 von einem PC an ein Mobiltelefon im britischen Vodafone-Netz gesendet. 1994 konnte ein Mobiltelefon auch erstmals eine SMS direkt verschicken. Für die Kurzmitteilungen hat sich der Na- me SMS eingebürgert, obwohl das Kürzel SMS eigentlich nur den Trägerdienst be- zeichnet.

Ursprünglich als reines„Abfallprodukt“ kostenlos angeboten, entwickelte sich SMS zum Hauptertragsbringer für die Netzbetreiber. Im Jahr 2005 wurden bundesweit über 61 Millionen Kurzmitteilungen pro Tag versendet, bis zum Jahr 2011 stieg die Zahl auf 148 Millionen. Bei einer gründlichen Betrachtung überrascht der Erfolg dieses Dienstes nicht, weil er in Kombination mit einem Mobiltelefon sehr viel gebrauchstauglicher zu nutzen ist als seine inzwischen fast schon vergessenen Vorgänger, die digitalen Funk- meldeempfänger (sogenannte Pager). Weiterentwicklungen von SMS existieren unter dem Namen Enhanced Message Service (EMS) und Multimedia Messaging Service (MMS). MMS bietet die Möglichkeit, mit einem Mobiltelefon multimediale Nachrich- ten (Videos, Bilder, Ton und Text) von bis zu 500 kB an andere mobile Endgeräte zu versenden. MMS ist nicht kompatibel zu SMS oder EMS, Endgeräte müssen MMS ex- plizit unterstützen. Einige Netzbetreiber bieten andernfalls den Abruf der MMS über das Internet und ein Kennwort, das dem Empfänger per SMS mitgeteilt wird, an. Für Gehörlose und hochgradig Schwerhörige bietet somit die„SMS“-Funktion eine Mög- lichkeit, ein Mobiltelefon zu benutzen, wie auch beim Bild- und Schreibtelefon.

Die Anzahl der in Deutschland versendeten Kurznachrichten stieg bis zum Jahr 2012 auf 163 Millionen pro Tag an. Seitdem ist ein deutlicher Abwärtstrend zu verzeichnen, innerhalb von zwei Jahren brach die Zahl der gesendeten Kurznachrichten um 55 % ein. Als Ursache dafür werden Instant-Messenging-Programme wie WhatsApp und Tele- gram gesehen. Mit dem Messenger WhatsApp wurden Anfang 2014 täglich etwa 50 Milliarden Nachrichten versendet, im April desselben Jahres stieg die Zahl auf 64 Mil- liarden an. Die SMS ist mit 55 Milliarden versendeten Einheiten unter das Niveau der Instant Messenger gefallen. Während jeder Bundesbürger zu Jahresanfang 2014 zwei SMS täglich verschickte, sendete jeder WhatsApp-Nutzer 30 Nachrichten pro Tag.

Smartphone als Kameraersatz: Für Mobiltelefone mit eingebauter Kamera hatten sich zwischenzeitlich die Begriffe„Fotomobiltelefon“ bzw.„Fotohandy“ als Unterschei- dungskriterium etabliert. Wegen der zunehmenden Verbreitung der Fotofunktion in Mobiltelefonen haben diese Begriffe jedoch schnell wieder an Bedeutung verloren.

1999 erschien für den japanischen Markt das weltweit erste Mobiltelefon mit integrier- ter Digitalkamera, das Toshiba Camesse mit dem Betriebssystem GEOS-SC. Das Camesse wurde in Japan schnell zum Kultgerät und hatte mehrere Nachfolger. Im japa- nischen Internet existieren mehrere Dienste, auf die private Camesse-Fotos geladen und veröffentlicht werden können. Beim Camesse konnten die Fotos direkt im Mobiltelefon mit einer Grafiksoftware bearbeitet werden. Seit 2002 werden immer mehr Mobiltele- fone mit integrierter Kamera ausgestattet. Bei diesen Fotomobiltelefonen befinden sich die Bildaufnahmegeräte meist auf der Rückseite des Mobiltelefons.

Die fotografische Qualität der ersten Kameramobiltelefone reichte anfangs nicht an Di- gitalkameras gleicher Zeit heran. Gegen Ende 2002 gab es noch keine Mobiltelefonka- meras, die Bilder mit mehr als 640 * 480 Pixeln aufiiahmen. In Deutschland war das im Jahr 2004 erschienene Sharp GX 30 das erste Fotohandy mit einer 1 -Megapixel- Kamera. [41] Die Auflösung der Handykameras wuchs seit ihrer Einführung stetig an und fand im Huawei Mate 20 mit 48 Megapixeln ihren bisherigen Höhepunkt. Die Auf- lösung moderner Handykameras ist jedoch in den meisten Fällen nicht höher als 8 bis 13 Megapixel, da eine höhere Auflösung auf einem kleinen Bildsensor, wie er in einem Handy Platz finden muss, zu schlechter Bildqualität fuhrt und auch das optische Lin- sensystem meist keine feineren Details ermöglicht. Das Unternehmen Apple bietet kei- ne Smartphones an, deren Kameraauflösung mehr als 12 Megapixel beträgt.

Mit den integrierten Kameras können meist auch Videos aufgenommen werden. Deren Qualität ist stark unterschiedlich und abhängig von Hersteller, Modell und Stand der Technik. Herkömmliche Nicht-Smartphones liefern meist schlechte Aufnahmen. Vi- deoaufzeichnungen erfordern einen leistungsfähigen Grafikprozessor, um annehmbare Resultate zu erzielen. Bei modernen Smartphones ist dies oft gegeben, wodurch hier die Auflösung von Filmmaterial meist Full-HD beträgt. An die Qualität von Spiegelreflex- kameras kommen Handykameras üblicherweise nicht heran, dennoch lassen sich Han- dykameras für die Aufzeichnung anspruchsvoller Filme verwenden.

Mobiltelefonkameras machen es auch möglich, gedruckte QR-Codes zu lesen. Diese beinhalten dabei meist einen URL auf eine Webseite. Andere Anwendungsmöglichkeit ist etwa die Rückverfolgung von Lebensmitteln. Im Zuge der Versuche, Kameras in Mobiltelefone zu integrieren, gibt es auch die umgekehrte Variante, die Integration ei- nes Mobilfunkmodems in eine Kamera. Beispiel für ein solches Gerät ist Samsung Ga- laxy Camera. Diese Kompaktkamera verwendet das Telefonbetriebssystem Android. Ebenfalls am Markt erhältlich sind Aufsteckobjektive für Mobiltelefonkameras sowie Digitalkameras, die sich mit einer Anwendung auf dem Telefon steuern lassen.

Kritik: Das zunehmende Verschmelzen von einfachen Fotoapparaten und Mobiltelefo- nen birgt auch Gefahren in sich, die zu Kritik an dieser Funktionalität führen:

-Zunehmend verbieten größere Firmen ihren Mitarbeitern, Mobiltelefone mit Kamera- funktion auf das Werksgelände zu bringen. Diese stellen im Bereich der Werks Spionage ein Sicherheitsrisiko dar. Wo bis dato ein Film- und Fotografierverbot galt, fuhrt dies zu einem De-facto-Mobiltelefonverbot. Dies f hrt bei konsequenter Durchsetzung zu ho- hem Aufwand und Unverständnis bei Belegschaft und Besuchern .

-Fotohandys gerieten in die Kritik durch zunehmenden Voyeurismus, zum Beispiel in Badeanstalten oder Umkleidekabinen, bei denen die Opfer unbemerkt mit den unauffäl- ligen Handys fotografiert oder gefilmt werden.

-Mit steigender Verbreitung von Fotohandys gerieten jugendliche Täter häufiger in die Schlagzeilen, die damit Gewaltakte fotografierten oder filmten und anschließend ande- ren zugänglich machten (Happy Slapping). Bekannt wurde der Fall einer gefilmten Vergewaltigung einer 16-Jährigen durch vier 13- bis 15-jährige Jugendliche 2006 im Volkspark Jungfemheide in Berlin. Es gibt folgende Anwendungen: Seit 1998 sind Mobiltelefone mit integriertem FM- Radio (das Ohrhörerkabel wird als Antenne verwendet) und seit 2000 mit integrierter Musikabspielfunktion erhältlich. Mit derartigen Mobiltelefonen können Musikdateien wie bei einem MP3-Player in den Gerätespeicher geladen werden. Viele Mobiltelefone bieten seit 2001 die Möglichkeit, ihre jeweilige Speicherkapazität mittels einer Spei- cherkarte zu erweitern - je nach Modell bis zu mehreren GB.

Viele Mobiltelefone, die vor dem Populärwerden von Smartphones auf dem Markt ka- men, besitzen einen Browser zum Surfen auf WAP- und Mobile-HTML-Seiten. Wobei ein erstes WAP-fähiges Handy bereits 1999 veröffentlicht wurde. Die WAP-Technik ist mittlerweile obsolet und wurde von der Möglichkeit, das herkömmliche Internet auf dem Handy zu nutzen verdrängt. Steve Jobs kritisierte bei der Präsentation des iPhone die WAP-Technik als„Baby-Internet“ und stellte den Intemet-Browser Mobile Safari als„ersten echten Intemet-Browser auf einem Smartphone“ dar. Moderne Smartphones haben meist einen mitgelieferten Browser, mit dem sich HTML-Seiten relativ komfor- tabel betrachten lassen können. Alternativ lassen sich auf Smartphones auch Browser von Drittanbietem wie Opera Mini nachinstallieren.

Moderne Smartphone-Anwendungen bieten für den Intemetzugriff vielfältige Verwen- dungsmöglichkeiten, wie etwa das Abrufen von Aktien oder Wetterdaten sowie auf On- line-Kartenmaterial gestützte Navigation. Auch Instant-Messenger verwenden zum Versenden von Textnachrichten das Mobile Internet.

Der Dienst Push-to-talk („drücken, um zu sprechen“) ermöglicht es, kurze Sprachnach- richten an einzelne Nutzer oder Gruppen zu versenden. Dieser Dienst wird in Deutsch- land nicht mehr unterstützt (vorher nur Telekom/Dl). Durch die Popularität von Instant - Messengem erlebt die Push-to-talk-Funktion eine gewisse Renaissance, da derartige Programme eine solche Funktion bieten. Dies ist jedoch im Gegensatz zum ursprüngli- chen Push-to-talk nicht providergestützt, sondern basiert auf der Infrastruktur des In- stant-Messengers.

Erste Anwendungen von Drittanbietem, sogenannte Apps (Abkürzung von Application, englisch für„Anwendung“) wurden durch die Vorstellung der Java ME (Java Micro Edition) im Jahre 1999 möglich. Es wurden in den Folgejahren mehrere Mobiltelefone mit der Java-Technik ausgestattet, wodurch die Midlets genannten Anwendungen eine gewisse Popularität erfuhren. Die Java-Plattform wurde 2007 abgekündigt.

Mit dem Erscheinen von Smartphones wurden die Möglichkeiten von Anwendungen weiter ausgebaut. Beim Erscheinen des ersten iPhone war Steve Jobs für ein geschlos- senes Betriebs- und Anwendungssystem, und meinte, Webapps würden den Dienst von nativ installierten Anwendungen genauso zuverlässig und schnell erledigen. Dennoch verkündete Apple am 17. Oktober 2007, auf Drängen des Vorstands und der Medien, im Februar 2008 ein Software Development Kit (SDK) für Entwickler freizugeben. Das Resultat für die Endbenutzer war der App Store, aus dem Apps heruntergeladen werden können. Dadurch lässt sich das Mobiltelefon um ein Vielfaches an Anwendungsmög- lichkeiten erweitern.

Mit Hilfe der Programmierumgebungen (SDKs) lässt sich das Mobiltelefon - wie viele andere Computersysteme - auch gravierender modifizieren. Ein Gerät kann somit voll- kommen andere Aufgaben wahmehmen als die ursprünglichen Mobiltelefonfunktionen. Seit der Einführung von Smartphones sind SDKs jedoch überwiegend für die Entwick- lung kommerzieller Anwendungen (den genannten Apps) im Gebrauch, wie z. B. Xcode für das GPS- und GLONASS-Signale werden in Mobiltelefonen von Navigati- onsprogrammen genutzt. 2005 erschien bereits das erste Smartphone mit eingebautem GPS-Empfänger. Es handelte sich um das Siemens SXG75. Kurz darauf folgte das Mo- torola A780, allerdings fanden beide aufgrund niedriger Verkaufszahlen wenig Verbrei- tung. Erst 2007 folgten dann das Nokia N95 oder HTC P3300. GPS-Empfänger konn- ten aber auch vorher schon extern über Bluetooth oder Kabel angeschlossen werden. Frühere Versuche der Integration von GPS-Hardware in Mobiltelefone scheiterten an deren enormen Energiebedarf, einige Modelle kamen dennoch bereits ab 2001 auf den Markt. Seit ca. 2012 empfangen viele Smartphones neben GPS- auch GLONASS- Signale.

Im Gegensatz zu Navigationsgeräten verlangten viele Mobiltelefonhersteller in der An- fangszeit noch Gebühren für Navigation. Dies geschieht meist über den Umweg, dass der Abgleich zwischen Position und Karte aktiv vom Netzanbieter über eine eigene Software erfolgt, in (A-GPS) durch die Hinzunahme einer Funkzellen-Ortung, die dann in Datenvolumen oder Kilometer abgerechnet wird, oft auch nur über eine Onlinekarte, die sekundär einen Zugang zum Internet erzwingt.

Etliche Apps bieten mittlerweile jedoch auch eine gänzlich kostenlose Offline -Führung an, sofern das Mobiltelefon kompatibel ist und genug eigenen Speicher für die Karte aufweist. Eine externe GNSS-Maus kann den Empfang der Mobiltelefone verbessern. In der Anfangszeit lieferten Navigations-Programme wie Trekbuddy nur eine Kompass- Navigation bzw. benötigen für die exakte Straßen-Navigation vorher abgespeicherte Routendaten oder GPS-Punkte.

Viele Netzbetreiber bieten über ihre Independent Service Provider - auch„Brands“, al- so Tochterunternehmen genannt - nur solche Mobiltelefone an, die mit einer von ihnen speziell angepassten Software ausgestattet sind (sog.„Branding“ oder„Customiza- tion“). Viele Änderungen werden speziell für den Netzbetreiber oder für den Service- Anbieter des Kunden vorgenommen, bevor dieser das Mobiltelefon erwirbt. Dadurch werden Funktionen des Telefons erweitert, entfernt oder verändert. So werden Kunden durch zusätzliche Menüeinträge im Browser („Favoriten“) - im Extremfall sogar durch zusätzliche Tasten - automatisch zu den Portalseiten der Service-Anbieter oder der ,Brands“ geführt, FAQ-Seiten hinterlegt, SIM-Lock eingerichtet, Rufhummemeinträge für Hotlines hinterlassen, der Netzbetreibemame sowie der Hintergrund im Display ge- ändert etc. Mittlerweile werden beim Branding oft normale Komfortfunktionen, wie et- wa ein auf dem Gerät gespeichertes Bild per Knopfdruck an die Bildschirmgröße an- passen, entfernt. Üblich ist es auch, das Speichern von Spielen und ähnlicher Software (meist per Bluetooth und Infrarot) auf dem Telefon zu verhindern, um den Nutzer an die oft kostenpflichtigen„Downloadportale“ der Provider zu binden. Es besteht die technische Möglichkeit, die Software des Netzbetreibers wieder durch die des Telefon- herstellers zu ersetzen (Debranding).

Mobiltelefone, mit denen man mit zwei Netzkarten gleichzeitig anruf- und empfangsbe- reit ist, nennt man Dual-SIM-Handys. Moderne Dual-Sim-Telefone verfugen über 2 komplette Sende- und Empfangseinheiten, die nicht wie bei älteren Modellen manuell gewechselt werden müssen. Ebenfalls im Handel erhältlich sind Triple-SIM-Handys, mit denen man bis zu drei SIM-Karten in einem Gerät betreiben kann.

Als gängige Bezeichnung für die neu eingeführten GSM-Mobiltelefone bürgerte sich ab etwa 1992 in der deutschen Umgangssprache der Begriff„Handy“ ein. Das in Deutsch- land oft gebrauchte Wort„Handy“ ist jedoch ein Scheinanglizismus, da es im englisch- sprachigen Raum fast nur als Adjektiv verwendet wird („praktisch, bequem, handlich“) und nicht als Bezeichnung für ein Mobiltelefon. Von einigen - etwa vom Verein Deut- sche Sprache - wurde die eingedeutschte Schreibweise„Händi“ empfohlen, die sich al- lerdings nicht durchsetzen konnte. Zur Entstehung des Begriffs gibt es zahlreiche wi- dersprüchliche Erklärungsansätze, die bislang nicht schlüssig belegt werden konnten. Im Zweiten Weltkrieg produzierte Motorola erstmals neben dem Walkie-Talkie SCR- 300, das auf dem Rücken getragen wurde, das Handie-Talkie SCR-536, das man wie ein Telefon in der Hand halten konnte. Bis heute gibt es Nachfolgemodelle dieses Na- mens, der seit 1963 auch in englischen Wörterbüchern geführt wird. Das erste D-Netz- Mobiltelefon, das den Begriff Handy im Namen führte, war das 1992 von Loewe vor- gestellte HandyTel 100.

In deutschsprachigen CB- und Funkamateur-Kreisen gab es die Bezeichnung Handy schon vor 1992. Gemeint war damit ein hand-held transceiver, also ein in der Hand ge- haltener Sender und Empfänger. Meist waren damit kleine, so ähnlich wie ein Telefon aussehende Funkgeräte für UKW-Bänder gemeint, wie z. B. das YAESU FT23. Diese Funkgeräte waren relativ klein und konnten mit einer Hand bedient werden; andere CB- Funkgeräte waren wesentlich größer und mussten in der Regel mit zwei Händen bedient werden.

Das US-amerikanische sowie südafrikanische Englisch spricht meist vom cell(ular) phone (cell ist die Zelle rund um einen Transceiver im mobilen Netzwerk), im briti- schen Englisch vom mobile phone oder kürzer mobile. Wenngleich es von nicht- Muttersprachlem verwendet wird und es vereinzelte Anläufe gab, es im Englischen ein- zuführen, wird das Substantiv„Handy“ im englischsprachigen Raum weder benutzt noch verstanden.

Ein handliches Taschenlampenmodell der Firma Daimon wurde 1937 unter dem Namen „Handy“ als Warenzeichen eingetragen: Es war das erste„Handy“ Deutschlands. In der Schweiz hat sich der Ausdruck Natel (als Abkürzung für Nationales Autotelefon) ein- gebürgert. Der Ausdruck wird jedoch von der Telefongesellschaft Swisscom als ge- schützte Marke allein für ihre Dienste beansprucht. Im Zuge der Öffnung des Mobil- funkmarktes verbreitet sich auch in der (deutschsprachigen) Schweiz der vom Netzbe- treiber unabhängige Name Handy immer mehr, nicht jedoch auf offizieller Ebene, denn der Name Handy wurde bereits am 6. Juni 1958 als Warenzeichen für ein bekanntes Geschirrspülmittel der Mifa AG eingetragen.

Auch in anderen Sprachen haben sich teilweise sehr plastische Bezeichnungen für das Mobiltelefon eingebürgert. Zumeist richtet sich die Bezeichnung nach einer augenfälli- gen Eigenschaft des Gerätes.

Als sein wichtigstes Charakteristikum gilt die Portabilität: Der lateinische Wortstamm mobile findet sich etwa in der deutschen Bezeichnung Mobiltelefon. Die Bezeichnung findet sich auch im Englischen (mobile phone, mobile) und in vielen anderen Sprachen wieder, etwa im Spanischen (movil) oder im Katalanischen (mobil). Daneben haben sich die Bezeichnungen„Tragbares“ (portable im Französischen, keitai oder auch im Japanischen) oder„Reisetelefon“ (matkapuhelin) im Finnischen etabliert.

In manchen Ländern richtet sich die Bezeichnung der Mobiltelefone nach deren Auf- bewahrungsort:„Hosentaschen-Telefon“ (cep telefonu) im Türkischen,„Taschentele- fon“ (fon phoca oder fon poca) im Schottisch-Gälischen und im Irischen.

In wieder anderen Sprachen zielt die Bezeichnung darauf ab, dass Mobiltelefone zum Telefonieren in der Hand gehalten werden:„Handtelefon“ (fon läimhe) im Irischen, hand phone in vielen asiatischen Ländern (besonders: Singapur/Malaysia), sau kei oder (jeweils Landmaschine“) in China, mue thue als Kurzform von thorasap mue thue („handgehaltenes Telefon“) in Thailand.

Oft nimmt die Bezeichnung auch den„zellulären“ Charakter des Mobil telefonnetzes auf; eine häufige Bezeichnung ist daher„Netz-“ oder„Zelltelefon“ - so zum Beispiel das Englische cellular phone/cell phone (vor allem US-amerikanisches Englisch), das spanische celular, khelyawi im Libanon, komorka in Polen oder Ponsel (telepon selular) in Indonesien. Im Italienischen ist neben der Bezeichnung (telefono) cellulare - die den amerikanischen Sprachgebrauch widerspiegelt - auch die Diminutivform telefonino, al- so:„Telefönchen“ gebräuchlich. Während in Portugal die Bezeichnung telemovel üb- lich ist, sagt man in Brasilien (telefone) celular.

In anderen Ländern wiederum leitet sich die Bezeichnung vom GSM-Standard ab: Bul- garen bezeichnen Mobiltelefone neben Mobifon auch als dzhiesem

Isländer als Gemsi (was auf Isländisch außerdem so viel bedeutet wie jun-

ges Schaf) Im niederländischen Sprachraum gibt es regionale Unterschiede bei der Be- zeichnung. Während der allgemeine Begriff mobiele telefoon lautet, welcher gerade in den Niederlanden selbst auch oft im abkürzenden Diminutiv mobieltje gebraucht wird, findet sich besonders in Flandern, aber auch im Großherzogtum Luxemburg, weitver- breitet der Begriff GSM. Auch in Slowenien wird der Ausdruck gsm (in englischer Aussprache) oder aber mobitel verwendet. Auch mobilnik ist gebräuchlich.

In manchen Ländern wird das Mobiltelefon nach Netzbetreibem oder Herstellern be- nannt, die sich als erstes etabliert haben. So ist in der Schweiz der Begriff„Natel“ üb- lich, der durch den gleichnamigen Markennamen des Netzbetreibers geprägt wurde. Darüber hinaus finden sich auch gänzlich andere Bezeichnungen: Im Iran werden Mo- biltelefone als„Begleittelefon“ (telefon-hamräh oder hamräh - bezeichnet, in

Israel als„Wundertelefon“ (pelefon - Hierbei ist zu bemerken, dass Pelephone auch der erste israelische Netzanbieter war. Das Wort wurde deshalb auch ins Palästi- nensisch-Arabische übernommen und als bilifon ausgesprochen.

In vielen arabischen Ländern wie den Vereinigten Arabischen Emiraten oder Saudi- Arabien wird es Jawwal bezeichnet, was„das, was durch die Gegend spaziert“

bedeutet und der Name der dortigen ersten Netzbetreiber ist. Dies ist zwar auch in den Palästinensischen Autonomiegebiete der Fall, dort hat sich aber der israelische Name bilifon gehalten.

Auf dänisch, schwedisch und norwegisch heißt Mobiltelefon mobiltelefon oder kurz mobil. In Schweden sind daneben umgangssprachlich auch Ficktelefon (zu schwedisch Ficka =„(Hosen-) Tasche“) und nalle zu hören. Letzteres bedeutet„Teddybär“ - das kam ursprünglich vom Ausdruck Yuppie-nalle, da sich bis in die späten 1980er Jahre nur reiche Yuppies Mobiltelefone leisten konnten, die sie dann stolz„wie einen Teddy- bären“ umhertrugen.

Ein originär deutscher Begriff für besonders klobige, frühe Mobiltelefone ist„Kno- chen“, eine Bezeichnung, die wegen der charakteristischen Form ursprünglich für den Telefonhörer verwandt wurde.

In einigen Umgebungen, insbesondere bei Aufführungen in Kinos, Theatern oder Opern und vor allem in Gotteshäusern oder auf Friedhöfen wird die Nutzung von Mobiltelefo- nen häufig als störend empfunden. Deshalb gehen etwa Kinobetreiber dazu über, die Nutzung aktiv oder passiv zu unterbinden. In Ländern wie den USA ist der Einsatz von Störsendern mittlerweile gängige Praxis, um eine störungsfreie Aufführung zu gewähr- leisten. In anderen Ländern wie auch Deutschland ist jedoch die Nutzung der Sendefre- quenzen untersagt, da diese exklusiv den Netzbetreibem Vorbehalten sind. Die Betreiber setzen deshalb auf die passive Störung von Funktelefonen durch eine gute Abschirmung der Säle. Das führt allerdings auch dazu, dass Mobiltelefone die maximale Sendelei- stung abstrahlen.

In vielen Ländern wird das Führen von Mobilfunkgesprächen in öffentlichen Ver- kehrsmitteln von den Mitfahrern oft als störend und als indirekter Zwang zum Mithören empfunden, zumal dabei meist lauter gesprochen wird als im Gespräch mit anwesenden Personen. In manchen Ländern, so in Japan, gilt es als verpönt, in öffentlichen Ver- kehrsmitteln Telefongespräche zu führen oder auch nur Klingeltöne erklingen zu lassen; auf diese Verhaltensregel wird mit Ansagen aufmerksam gemacht. In Graz wurde 2008 in den städtischen öffentlichen Verkehrsmitteln ein Telefonierverbot erlassen, das aber nicht durchgesetzt wird.

Die Benutzung eines Mobiltelefons während der Fahrt ohne Freisprecheinrichtung ist Fahrzeugführem in vielen Ländern verboten (auch in Deutschland, Österreich und der Schweiz). Bei Nichtbeachtung des Verbotes werden Bußgelder, in Deutschland zusätz- lieh auch eine Eintragung von einem Punkt im Fahreignungsregister verhängt. In Deutschland wurden im Jahr 2011 in 450.000 Fällen Autofahrer mit einem Mobiltele- fon am Steuer ertappt. ln Deutschland darf nach § 23 Abs. la StVO der Fahrzeugführer ein Mobil- bzw. Auto- telefon oder sonstiges elektronisches Gerät, das der Kommunikation, Information oder Organisation dient, nur benutzen, wenn hierfür das Mobiltelefon oder der Hörer des Ge- rätes nicht aufgenommen oder gehalten werden muss und die Bedienung des Geräts über eine Sprachsteuerung erfolgt oder zur Bedienung nur eine situationsangemessene, kurze Blickzuwendung erforderlich ist. Dies gilt nicht, wenn das Fahrzeug steht und bei Kraftfahrzeugen der Motor vollständig ausgeschaltet ist. Ein Verstoß gegen das Nut- zungsverbot von Mobiltelefonen und anderen elektronischen Geräten, die der Kommu- nikation, Infonnation oder Organisation dienen, wird mit einem Bußgeld von 100 Euro und der Eintragung eines Punktes im Fahreignungsregister geahndet. Bei Verstößen mit einer Gefährdung Anderer oder mit einem Verkehrsunfall erhöht sich das Bußgeld auf 150 Euro bzw. 200 Euro.

Zudem werden in diesen Fällen zwei Punkte im Fahreignungsregister eingetragen und zusätzlich ein einmonatiges Fahrverbot verhängt. Das Verbot der Benutzung eines Mo- biltelefons gilt in Deutschland auch für Fahrradfahrer. Für einen Verstoß durch einen Fahrradfahrer ist nach der aktuellen Fassung des Bußgeldkataloges ein Verwamungs- geld in Höhe von 55 Euro vorgesehen. Kinder unter zehn Jahren, die mit einem Kinder- fahrrad fahren, werden nach der StVO als Fußgänger angesehen, weshalb für sie das Verbot der Benutzung eines Mobiltelefons nicht gilt.

Als Benutzung des Mobiltelefons wird in der deutschen Rechtsprechung auch das Able- sen der Uhrzeit (OLG Hamm, Az. 2 Ss OWi 177/05), die Nutzung eines Mobiltelefons als Navigationssystems (OLG Köln, Az. 81SsOWi49/08) sowie das„Wegdrücken“ ei- nes Anrufes (OLG Köln, Az. M-lRBs39/12) erachtet. Nicht als gegen das Verbot der Nutzung eines Mobiltelefons als im Sinne von § 23 Abs. la StVO wurde hingegen die Nutzung eines Mobiltelefons als Wärmeakku angesehen (OLG Hamm, 2 Ss OWi 606/07), das Aufiiehmen des Mobiltelefones, ausschließlich zu dem Zweck, es von ei- nem Ablageort an einen anderen zu legen (OLG Köln, Az. 83 Ss-OWi 19/05) sowie das Aufheben eines auf den Beifahrerfußraum gefallenen Mobiltelefons, um es auf den Bei- fahrersitz zu legen (OLG Düsseldorf, IV-2 Ss OWi 134/06-70/06 PG).

Nach einem Beschluss der Oberlandesgerichtes Hamm vom 24. Oktober 2013 ist sogar „die wiederholte verbotswidrige Benutzung eines Mobil- oder Autotelefons geeignet, die Anordnung eines Fahrverbots wegen einer beharrlichen Pflichtverletzung zu recht- fertigen“ (Az.: 3 RBs 256/13). Als Grund für das Verbot wird die Ablenkung des Fah- rers sowie gegebenenfalls der„Wegfall“ einer Hand für das Lenken genannt. Ein „Headset“ wird, im Gegensatz zu Deutschland, nicht in allen anderen Ländern als Frei- sprecheinrichtung anerkannt. Für Motorradfahrer, die auch während der Fahrt ihr Mo- biltelefon nutzen möchten, existieren spezielle Motorrad-Gegensprechanlagen. Doch selbst bei Nutzung einer Freisprecheinrichtung kann ein Fahrzeugführer, wie neueste Studien zeigen, erheblich vom Verkehrsgeschehen abgelenkt werden. Britischen Stu- dien zufolge muss die Fahrbeeinträchtigung des Fahrzeugführer durch das Telefonieren mit deijenigen gleichgesetzt werden, die unter Alkoholeinfluss erfolgt.

In Österreich ist das Telefonieren mit einem Mobiltelefon während des Lenkens eines Kraftfahrzeugs seit dem 1. Juli 1999 verboten. Als Strafe ist eine Zahlung von 50 Euro vorgesehen, bei nicht sofortiger Zahlung kann von der Sicherheitsbehörde eine Geld- strafe bis zu 72 Euro oder alternativ eine 24-stündige Freiheitsstrafe verhängt werden. Die Anbindung des Mobiltelefons an die Freisprecheinrichtung des Kfzs kann entweder über einen sogenannten Snap-in-Adapter erfolgen, oder kabellos über den Datenüber- tragungsstandard Bluetooth, und zwar über die Bluetooth-Profile Hands Free Profile (HFP) oder remote SIM Access Profile (rSAP), wobei rSAP aufgrund der Nutzung der Außenantenne des Kfzs zu bevorzugen ist, bislang aber nur von einigen wenigen Mo- biltelefonen unterstützt wird.

2010 sind in den USA tödliche Unfälle von Fußgängern, die durch ihr Mobiltelefon ab- gelenkt wurden, um 4,2 Prozent gestiegen. Bei Straßenverkehrsunfallen setzen Unfall- beteiligte häufig die Kamerafunktion des Mobiltelefons zu Dokumentation der Unfall- stelle ein - ggf. auch zusätzlich zur Verkehrsunfallaufhahme durch die Polizei .ln Kran- kenhäusern ist das Einschalten von Mobiltelefonen oft nicht erlaubt, da befurchtet wird, die elektromagnetischen Felder könnten die Funktion medizinischer Geräte beeinträch- tigen. Untersuchungen der Universitätsklinik Gießen haben allerdings ergeben, dass medizinische Geräte erst bei einem Abstand von weniger als einem Meter durch Mobil- telefone beeinträchtigt werden können. Es würde also ausreichen, das Verbot in Kran- kenhäusern auf Räume wie Intensivstationen zu beschränken. Eine an der Mayo-Klinik durchgeführte Studie ergab ebenfalls, dass Krankenhausgeräte nicht von Mobiltelefo- nen beeinflusst werden: In 300 Tests fanden die Forscher keinen einzigen Nachweis da- für, dass die Nutzung eines Mobiltelefons zu einer Störung von Apparaten auf Intensiv- stationen und in anderen Bereichen des Krankenhauses führen könnte.

Alle zugelassenen Geräte, besonders natürlich die in Krankenhäusern, müssen eine Mindeststörfestigkeit aufweisen, die ein Mehrfaches des beim Betrieb von Mobiltelefo- nen erreichten Signals betragen muss.

Auch in einigen Flugzeugen ist Mobiltelefonieren während des Fluges inzwischen er- laubt. Für Flugzeuge sind Systeme entwickelt worden, die den Gebrauch von Mobiltele- fonen an Bord mitunter erst ermöglichen. Mehrere Fluggesellschaften planen, ihre Flugzeuge mit Sendegeräten auszustatten, die die Funksignale der Mobiltelefone über Satelliten an die Mobilfunknetze weiterleiten. Die Sendeleistung der Mobiltelefone wird durch das Bordsystem auf ein Minimum reduziert. Die Luftfahrtstandardisierungs- gremien EUROCAE working group 58 und ihre US-amerikanische Entsprechung RTCA special committee 202 haben sich eingehend mit dem Thema befasst und Prüf- vorschriften zum Nachweis der elektromagnetischen Verträglichkeit zwischen Mobil- funk und Bordelektronik entwickelt.

EUROCAE hat die zugehörigen Nachweisverfahren und Analysen im Dokument ED- 130 niedergelegt. In Deutschland regelt die Luftfahrzeug-Elektronik-Betriebs- Verordnung (LuftEBV) den Gebrauch elektronischer Geräte an Bord von Flugzeugen. In dieser LuftEBV wird der Gebrauch von Funktechniken innerhalb der Kabine gegen- über vorherigen Versionen der Verordnung auf Basis der Arbeiten der oben genannten EUROCAE- und RTCA-Gremien gelockert. Erste Mobilfunksysteme sind bereits in Übereinstimmung mit den einschlägigen Bauvorschriften für Flugzeuge von den euro- päischen Luftfahrtbehörden zugelassen. Gegenwärtig ist aber das Telefonieren mit Mo- biltelefonen in der überwiegenden Mehrzahl der Flugzeuge nicht gestattet. Für die 1,8 GHz-GSM-Funknetze (E-Netze) liegt die Reiseflughöhe von Verkehrsflugzeugen (mehr als 10 Kilometer) bereits am Rande der Reichweite (Zellengröße meist max. 8 km), D-Netz-Zellen besitzen bis zu 50 km Funkreichweite. [92] Der Rumpf vieler Verkehrsflugzeuge besteht aus Aluminium und dämpft Funksignale erheblich. Die er- sten Großraumflugzeuge, deren Rumpf zu erheblichem Anteil aus kohlenstofffaserver- stärktem Kunststoff besteht, sind der Airbus A350 sowie die Boeing 787 Dreamliner.

Vielfach werden sogenannte Mobiltelefonstrahlenfilter angeboten, die angeblich vor Strahlung schützen sollen. Solche Aufkleber oder Folien können die Nutzaussendung des Geräts beeinträchtigen. Hierdurch kann der Regelkreis zwischen Mobilteil und Ba- sisstation gestört werden. Dann sendet das Mobilgerät (und auch die Feststation) mit höherer Leistung, als in der jeweiligen Situation ohne Folie erforderlich wäre.

Das Anbringen jeglicher Vorrichtungen (Blinkantennen, Metallfolien und dergleichen) an einem Mobiltelefon ist nur dann zulässig, wenn es der Hersteller ausdrücklich gestat- tet, da sonst die Zulassung zum Betrieb des Gerätes in der EU gemäß den einschlägigen Gesetzen und Richtlinien erlischt (Österreich). Allgemein kann jede Veränderung, die die Funkeigenschaften beeinflusst (insbesondere anbringen elektrisch leitfähiger Objek- te), zu empfindlichen Strafen führen, insbesondere bei verstärkender, richtender oder störender Wirkung.

Bei einer ganzen Reihe von Kunstprojekten wurden Mobiltelefone verwendet, um In- teraktionen zu ermöglichen. So hat zum Beispiel das Projekt Blinkenlights unter ande- rem bei seiner Aktion Blinkenlights 2001 am Alexanderplatz in Berlin es Mobiltelefon- nutzem ermöglicht, Lichtinstallationen per SMS zu steuern. Ein weiteres Beispiel stellt das sogenannte„Saroskop“ des Künstlers Martin Hesselmeier dar. Das Saroskop re- agiert auf elektromagnetische Strahlung und ermöglichte damit u. a. Besuchern der Art Cologne 2008, mit ihren Handys Einfluss auf die Bewegungen des kinetischen Objekts zu nehmen.

Mobiltelefone werden passgenau mit bekannten Kunstmotiven beklebt um eine Indivi- dualisierung im Alltag zu erreichen. Dazu werden bedruckbare Beschriftungsfolien ein- gesetzt, diese gewährleisten einen Schutz der Gehäuse vor Kratzern, sowie die Verwen- dung des Mobiltelefon als einzigartiges Kunstobjekt mit Motiven bekannter Künstler.

Mit jedem Mobiltelefon kann der Notruf 112 (über die„911“ gelangt man mit manchen Mobiltelefonen ebenso zur Notrufzentrale) erreicht werden, auch wenn kein Guthaben vorhanden ist. Seit dem 1. Juli 2009 ist es nötig, dass eine SIM-Karte eingelegt ist. Deutschland setzte damit eine EU-Richtlinie um, welche den Missbrauch von Notruf- nummem verhindern soll. Zeitweise waren 80 Prozent der abgegebenen Notrufe miss- bräuchlich.

Die durchschnittliche Besitzdauer eines Mobiltelefons beträgt in Deutschland, bedingt durch Vertragslaufzeiten und Innovationszyklen, 18 bis 24 Monate. In Europa werden jährlich etwa 100 Millionen Altgeräte entsorgt. Das entspricht 10.000 Tonnen oder 400 LKW-Ladungen. Seit dem 24. März 2006 können in Deutschland Mobiltelefone laut dem Elektro- und Elektronikgerätegesetz vom Verbraucher kostenlos entsorgt werden.

Weltweit wurden im Jahr 2013 1,8 Milliarden GSM-Telefone ausgeliefert, 1 Milliarde davon waren Smartphones. Der generierte Smartphone-Umsatz lag bei $181 Milliarden. Marktfuhrer der Hersteller ist Samsung, mit einem Marktanteil von 31 %. Von sämtli- chen weltweit in Betrieb befindlichen GSM-Telefonen laufen 1,336 Milliarden mit dem Betriebssystem Google Android, 360 Millionen mit Apple iOS. Android ist mit beinahe 80 % Marktanteil Marktführer. Die Mobiltelefonindustrie ist sowohl einem starken Wachstum als auch einer schnellen Zielproduktveränderung unterlegen. Gegen 1999 wurde für die Mobiltelefonindustrie ein starkes Wachstum prognostiziert. Im ersten Halbjahr 1999 stieg der Umsatz mit pri- vat genutzten Mobiltelefonen in Deutschland um 7 % auf 1,35 Milliarden DM. 2013 waren es für das Gesamtjahr 8,3 Milliarden€. Bei der Einführung des kommerziellen volldigitalen 900-MHz-GSM-Mobilfunks im Jahr 1992 in Deutschland gab es bundes- weit 1 Million Mobiltelefonbesitzer. Bis zum Jahr 1998 stieg die Zahl auf 13,9 Millio- nen.1998 prognostizierte man für das Jahr 2005 46,3 Millionen Mobiltelefonbesitzer, tatsächlich waren es 2005 etwa 57,4 Millionen. Bis zum Jahr 2013 stieg die Zahl auf 63 Millionen an; 40,4 Millionen davon waren Smartphone-Nutzer.

Der Absatz sogenannter Smartphones hat in den letzten Jahren stetig zugenommen. Da- bei hat sich auch die Bedeutung des Terminus gewandelt: Während ursprünglich (2004) ein Mobiltelefon mit PDA-Funktion als Smartphone bezeichnet wurde, versteht man heute (2014) ein Mobiltelefon mit großem berührungsempfmdlichem Bildschirm und Apps als Smartphone. Es wird daher noch nicht sehr lange zwischen herkömmlichen Mobiltelefonen und Smartphones unterschieden. Im Jahr 2006 wurden weltweit 64 Mil- lionen Smartphones verkauft, im Jahr 2005 wurde der Gesamtabsatz von Mobiltelefo- nen weltweit auf 810 Millionen geschätzt. Der Absatz von Smartphones würde somit im Jahr 2006 grob geschätzt 8 % des Gesamtabsatzes ausgemacht haben, zum Ver- gleich: 2013 waren es 55 % des weltweiten Absatzes an Mobiltelefonen. Auch die An- zahl der abgesetzten Smartphones nahm in den letzten Jahren stetig zu, 2010 waren es 300 Millionen, 2011 490 Milionen und 2013 eine Mlliarde.

Im Jahre 2016 waren weltweit 7,1 Mlliarden Mobiltelefone im Umlauf. 2010 bestehen knapp 5 Mlliarden Mobiltelefonverträge weltweit und es werden jährlich eine Mlliarde Geräte hergestellt, die Haltbarkeit oder Nutzungsdauer liegt im Mttel bei drei Jah- ren.[107] Ein Mobiltelefon besteht zu 56 % aus Kunststoff, zu 25 % aus Metall und zu 16 % aus Glas und Keramik, zusätzlich zu drei Prozent aus Sonstigem.

Zu den verwendeten Metallen bzw. Übergangsmetallen gehören: -Tantal: Coltan, das Ausgangsmaterial für Tantal reicht noch 150 Jahre, aber die Pro- duktion ist begrenzt. Es gibt momentan (2010) keinen Austauschstoff.

-Gallium: Es ist Nebenprodukt der Aluminium- und Zinkherstellung. Die Reserven sind nicht knapp.

-Indium: Pro Jahr werden 600 t raffiniert. Die Gewinnung ist an die Förderung von Zink gebunden. Für Flachbildschirme, Displays und Leuchtdioden ist es bislang uner- setzlich.

-Lithium: Lithium ist kein selten vorkommendes Element (häufiger als beispielsweise Blei); seine Gewinnung ist jedoch durch die stärkere Verteilung schwierig.

-Palladium: Die begrenzte Rohstoffinenge wird von der Nachfrage aus der Automobil- industrie bedrängt.

-Platin

Weitere wichtige Metalle sind Kupfer (Leiterplattenherstellung), Gold und Silber (kor- rosionsbeständige Kontaktoberflächen, Bond-Verbindungen) sowie Zinn und Blei (Lötverbindungen). Blei wird aufgrund von RoHS bei neuen Mobiltelefonen allerdings kaum mehr eine Rolle spielen. Auch Beryllium ist als gut legierbarer Stoff in Leiterplat- ten enthalten. Antimon ist Bestandteil von bleifreien Loten und insbesondere in den Kunststoffgehäusen und der Tastatur als Flammhemmer enthalten.

Das Recycling erfordert das Trennen des Materialgemisches. In einer Tonne„Mobilte- lefon“ sind immerhin 4 Gramm Platin, 340 Gramm Gold und 3500 g Silber enthalten. Deshalb gilt das Recycling verbrauchter Produkte als wichtige Rohstoffquelle, zumal 80 % der verwendeten Materialien eines Mobiltelefons wiederverwertet werden kön- nen. Dazu wäre eine spezialisierte Industrie und die komplette Rücknahme verbrauchter Mobiltelefone nötig. Für ein solches Recyclingsystem plädierte im Juni 2012 der Sach- verständigenrat für Umweltfragen im Sinne der Einführung eines Pfandsystems für Mobiltelefone, wobei der Vorsitzende des Umweltrates Martin Faulstich eine Pfandhö- he zwischen 30 und 100 Euro vorschlug.

Es werden bis zu 30 Metalle und Mineralien zur Herstellung eines Mobiltelefons benö- tigt. Einige dieser Metalle werden vor allem in Minen abgebaut, die von sogenannten Warlords kontrolliert werden. Diese finanzieren mit den Gewinnen aus den Minen ihre Armee und somit den Bürgerkrieg, z. B. den Ostkongo-Konflikt. Zwischen dem End- kundenpreis von Mobiltelefonen und den Herstellungskosten liegen oft erhebliche Dif- ferenzen von bis über 75 %. Selbst die Prozessoren sind durch die Massenproduktion im Einkauf für die Geräte-Hersteller oft kaum teurer als einstellige Dollarsummen, ebenso die Bildschirmanzeige und der verbaute Speicher.

So berichtete z. B. die Sendung Spiegel TV am 26. August 2012, ein damals 629 Euro teures iPhone 4 koste in der Herstellung (Bauteile und Löhne für die Montage) nur 155 Euro, exklusive noch Kosten für z. B. Lizenzen, Softwareentwicklung, Fracht, Vertrieb, Marketing, Verwaltung, Steuern und Zoll.

Einige Verbraucherseiten wie isuppli.com veröffentlichen zudem auch regelmäßig Er- gebnisse über die Diskrepanz zwischen dem Wert der Hardware und den von den Her- stellern verlangten Preisen. Das 2013 erschienene Telefon Galaxy S4 der Firma Samsung etwa hat demnach ca. 236 Dollar Bauteil- und Materialkosten. Dabei entfallen z. B. ca. 30 Dollar auf den Prozessor, 75 auf den Bildschirm und 16 auf die Infrarot- Gestik- und Temperatur-Sensoren. Das Smartphone erschien in Deutschland mit 16 GB Speicher für ca. 649 Euro im Einzelhandel, was ca. 836 Dollar entsprach, allerdings noch ohne den in der Auflistung aufgeführten, modernen Prozessor.

Die Produktion von Mobiltelefonen steht auf Grund der Arbeitsbedingungen in den Herstellerbetrieben in der Kritik (siehe z. B. Foxconn). Um die Probleme in der Herstel- lung von Mobiltelefonen zu beseitigen, ist eine transparente Lieferkette der Kon- fliktrohstoffe und der beteiligten Unternehmen notwendig. Diese kann zur Zeit jedoch kaum gewährleistet werden. Mit dem Fairphone gibt es ein Mobiltelefon, dessen Produ- zenten es sich zum Ziel gesetzt haben, diese Probleme anzugehen.

Eine Handytasehe ist ein Tasche, zum Aufbewahren von Handys. Wie eine Hülle kann auch sie zum Schutz vor Beschädigungen wie zum Beispiel vor Stürzen, Hitze, Kälte, Feuchtigkeit usw. verwenden. Weiteres Ziel kann es sein ein bestimmtes Design (Skins) oder Farben anzeigen 2x1 lassen. Meist wird Kunststoff, Kunstleder oder Textilien als Material für Handytaschen verwendet. Handytaschen gibt es in Folgenden Varianten:

-Hard- und Softcase: Beide Varianten beziehen sich auf eine Abdeckung des Smartpho- nes. Das Hardcase verwendet häufig härtere Materialien wie Plastik, während das Soft- case in der Regel Silicon verwendet.

-Bumper: Dieses Zubehör liegt über dem Rahmen des Handys und dient so als eine Art Stoßstange.

-Flip-Case und Etui: Beide Varianten sind genau auf die Größe des Smartphones abge- stimmt. Sie umhüllen das ganze Gerät und lassen sich wie ein Buch oder ein Portemon- naie öffnen.

-Slim-Case: Das Slim-Case schmiegt sich eng an das Handy an und besteht in der Regel aus Neopren.

-Backcover: Das Backcover konzentriert sich auf die Rückseite des Handys.

-Hybrid-Cover: Normalerweise besteht ein Hybrid-Cover aus zwei Teilen, wobei die innere Hülle aus Silicon gefertigt ist. Diese wird in das Außencover eingeklemmt. Be- kannt ist das Hybrid-Cover auch als Outdoor-Hülle oder Outdoor-Cover.

-Handybeutel und Handysocken: Taschen, in denen sich die Handys reinstecken lassen und wieder rausgenommen werden können.

-Armtaschen: Diese Taschen werden über den Oberarm gebunden. Sie sind für den Outdoor-Bereich, wie zum Beispiel für Fitness und Sport gedacht.

Eine Schutzfolie ist eine Folie die den Bildschirm vor Beschädigungen wie Rissen und Verschmutzungen (Fett, Staub usw.) schützen soll. Auch Panzerglas oder Flüssigglas kann als ein Display-Schutz verwendet werden.

Ein Eingabestift (fachsprachlich englisch Stylus oder Touchpen) ist ein Stift, der zur Bedienung von Touchscreens verwendet wird. Durch den Eingabestift ist eine präzisere Bedienung als mit den Fingern möglich, da nur die dünne Spitze den Bildschirm be- rührt. Des Weiteren wird so die Verschmutzung des Bildschirms durch Fingerabdrücke verhindert. Für Handy gibt es mehren Halterungen, zum Beispiel für Fahrzeuge oder Fotografie. So kann das Handy als Radio oder Navigationssystem im Auto platziert werden oder sich Bildaufnahmen mit einem Stativ oder einem Selfie-Stick machen lassen.

Mobiltelefone sind beliebte Diebstahlobjekte, wobei nicht nur angeschaltete, angemel- dete Mobiltelefone interessant sind (da der Dieb mit ihnen ohne eigene Kosten telefo- nieren kann), sondern auch ausgeschaltete, über die PIN auf der SIM-Karte gesicherte Telefone. Die SIM-Karte kann jederzeit problemlos entfernt werden. Handelt es sich um ein nicht auf einen bestimmten Netzbetreiber zugelassenes Gerät, braucht lediglich eine neue SIM-Karte eingelegt zu werden, um das Gerät auf dem grauen Markt als vollwertig anbieten zu können.

Um das zu verhindern, empfiehlt sich das Sichern des Gerätes durch einen sogenannten Sperrcode oder auch Sicherheitscode. Gemäß seiner jeweiligen Einstellung wird das Gerät dann nach einer bestimmten Inaktivitätszeit oder nach dem Ausschalten deakti- viert und ist nur mit Hilfe des Codes wieder zu aktivieren. Der Nutzen des Sicher- heitscodes ist jedoch begrenzt, da er vom Dieb durch Generieren eines sogenannten „Sicherheits-Master-Codes“ umgangen werden kann. Der Sicherheitscode sperrt das Mobiltelefon, während der PIN-Code die SIM-Karte sperrt.

Eine neuere Form des Diebstahlsschutzes gibt es bei Samsung: uTrack sendet dabei nach Diebstahl oder Verlust des Mobiltelefons, wenn ein Dieb oder Finder eine andere SIM-Karte einlegt, eine SMS mit der„neuen“ Nummer der eingelegten SIM-Karte an eine vorher eingegebene Telefonnummer. So kann dann der rechtmäßige Eigentümer selbst oder durch Weitergabe an die Polizei die Ortung durchfuhren.

Bei Diebstahl eines Handys (mit Karte) empfiehlt sich also zweierlei: Beantragung der Sperrung der Nummer (abhängig von der SIM-Karte: Angabe der eigenen Nummer und eines evtl vereinbarten Passwortes) Beantragung der Sperrung des gesamten Gerätes über die Angabe der geräteabhängigen IMEI-Nummer (oft auf dem Kaufvertrag oder der Originalverpackung angegeben. Die IMEI-Nummer steht auf dem Typenschild und kann auch durch Eingabe von *#06# angezeigt werden). Trotz der vorhandenen techni- schen Möglichkeit sperren jedoch nur wenige Netzanbieter Geräte anhand der IMEI- Nummer.

Eine einfache Lösung zum Schutz vor Verlust ist die Verwendung eines zweiten, sehr kleinen, batteriebetriebenen Funkgeräts geringer Sendeleistung (1 mW), das gefahrlos ohne Belastung durch Strahlen und ohne jede Bedienung ein akustisches Signal abgibt, wenn der Träger des Mobiltelefons dieses liegen lässt und sich entfernt. Derartige Gerä- te verwenden üblicherweise Bluetooth.

Gegen den Verlust und die Beschädigung eines Mobiltelefons werden Han- dyversicherungen angeboten. Die Versicherungsbedingungen unterscheiden sich mitun- ter jedoch erheblich; Diebstahl, Schäden durch Sturz und Feuchtigkeit können enthalten sein. Wird das Mobiltelefon zuhause gestohlen, so ersetzt oft die Hausratversicherung das Gerät. Aber auch hier müssen verschiedene Bedingungen erfüllt sein. So kommt die Hausratversicherung nur für den Diebstahl auf, wenn durch Einbruchsspuren an Fen- stern oder Türen ein gewaltsames Eindringen von außen nachgewiesen wird.

Von den meisten dieser Versicherungspolicen wird abgeraten, da sie meist teuer sind bezogen auf den gebotenen Versicherungsumfang. Darüber hinaus können Besitzer ei- ner Handyversicherung bei einem Diebstahl nur äußerst selten auf eine Kostenerstat- tung des Versicherers hoffen. Darauf weisen die für Versicherungen zuständigen Marktwächter der Verbraucherzentrale Hamburg hin. Grund sind die hohen Anforde- rungen der Versicherer daran, wie Verbraucher ihr Handy bei sich tragen müssen. Eine für Deutschland repräsentative Forsa-Umfrage im Auftrag des Marktwächters Finanzen hat ergeben, dass 77 Prozent aller befragten Handybesitzer ihr Mobiltelefon im öffentli- chen Raum so verwahren, dass die Versicherung bei Diebstahl nicht zahlen müsste.

SIM-Lock und Netlock sind Verfahren, mit dem Mobiltelefone an eine SIM-Karte, ei- nen Netzbetreiber oder an eine bestimmte Vertragsform gebunden werden. Ein mit SIM-Lock versehenes Mobiltelefon ist nur mit der beim Kauf des Telefons mitgeliefer- ten SIM-Karte verwendbar. Das Mobiltelefon kann somit mit keiner anderen SIM- Karte, auch nicht mit einer SIM-Karte desselben Netzbetreibers, betrieben werden.

War SIM-Lock in Deutschland vor allem bei Prepaid-Paketen üblich, werden mittler- weile immer häufiger auch subventionierte Mobiltelefone mit Vertragsbindung ge- sperrt, dann allerdings mit dem kundenfreundlicheren Netlock. Ein mit Netlock gesperr- tes Telefon kann zumindest mit anderen SIM-Karten desselben Netzbetreibers benutzt werden.

Umgangssprachlich wird auch bei Netlock jeweils von Simlock gesprochen. In der Schweiz werden vom Betreiber als„SIM-Lock-geschützt“ bezeiclmete Geräte nur mit einem Netlock versehen; andere SIM-Karten desselben Netzbetreibers funktionieren darin auch. Der Paketanbieter beabsichtigt mit der ganzen oder teilweisen Sperrung des subventionierten Mobiltelefons, dass der Kunde nicht bei der Konkurrenz„fremdtelefo- niert“. Nur so kann er sicherstellen, dass sich die Subventionen bei den Gerätekosten durch Gesprächseinnahmen wieder ausgleichen.

Üblicherweise kann der SIM-Lock und der Netlock nach Ablauf von zwei Jahren ko- stenlos oder innerhalb dieser Frist gegen Zahlung einer Gebühr um 100 Euro deaktiviert werden. Die Entsperrung erfolgt in der Regel durch den Benutzer selbst mittels Unlock- Code.

Daneben existieren im World Wide Web Anleitungen und Software zum selbständigen Entfernen von SEM- und Netzsperren. Oft wird ein ein- oder kleiner zweistelliger Be- trag dafür verlangt. Mit zunehmender Implementierung von verbesserten Sicherheits- mechanismen in den Mobilfunkgeräten wird für die Entfernung des SIM-Locks oft spe- zielles Equipment benötigt. Auch mit dünnen Zwischenkarten kann ein SIM- oder NET-Lock umgangen werden; so wird das Gerät unangetastet gelassen und man kann es dennoch mit Fremd(netz)-SIM-Karten nutzen, weill die Zwischenkarten die Netz- /Betreiberkennungen der eingelegten SIM-Karte zur Laufzeit manipulieren. In manchen EU-Ländern ist das eigenmächtige Entsperren illegal. In Österreich ist das Entsperren in Handy-Läden für fünf bis zehn Euro möglich und erlaubt. Für die Nut- zung bestimmter Dienstleistungen im Mobilfunk fallen Gebühren an, die vom Anbieter („Provider“) geschaffene Kostenregelung für diese bezeichnet man als„Mobiltelefonta- rif‘. Unterschiede bei Mobiltelefontarifen gibt es hauptsächlich in der Art der kosten- pflichtigen Leistungen, den Preisen und der Abrechnungsart. Siehe auch Roaming für Nutzung der Mobilfunknetze im Ausland. Das Verschicken von Kurzmitteilungen und das Telefonieren sowie alle anderen Dienste, bei denen Daten über das Mobilfunknetz versandt werden, werden in der Regel in Rechnung gestellt. Ausnahmen bilden mei- stens die Abfrage des Kontostandes, oft - aber nicht immer - auch das Abrufen der Mobilbox.

Der Preis orientiert sich im Allgemeinen an der Art (und Dauer) der Leistung und den verwendeten Netzen, gelegentlich auch der Tageszeit/dem Wochentag. Art der Lei- stung:

Anrufe: Preis von der Dauer/Taktung (Abrechnung pro Sekunde, Minute usw.) abhän- gig·

Text-Aind Datensendungen (SMS, MMS usw.): Preis von Größe abhängig, aber nicht unbedingt proportional ansteigend (d. h. eine MMS fasst ein Vielfaches an Daten als ei- ne SMS, ist aber nicht um den gleichen Faktor teurer)

Verwendete Netze: Generell sind Gespräche im Netz des eigenen Anbieters günstiger als jene von Fremdanbietem oder ins Festnetz; Auslandsgespräche sind generell teurer als Inlandtelefonate.

Tageszeit/Wochentag: Abends und nachts sind die Leistungen meist günstiger als am Tage, feiertags sind die Kosten geringer als werktags.

Es werden zwei Hauptarten der Abrechnung unterschieden: Beim Postpaid, umgangs- sprachlich häufig auch , Mobiltelefonvertrag“ genannt, werden die Kosten für die Lei- stungen nachträglich im Rahmen einer festen Vertragsbindung einbezogen (die Min- destvertragsdauer beträgt im Normalfall zwischen 18 und 24 Monate). Oft enthalten sind Grundgebühren und Mindestumsätze. Allerdings existieren auch Postpaid- Anbieter ohne zeitliche Vertragsbindung. Auch erhältlich sind Spezialtarife mit pauschaler Ab- rechnung, die oft werbewirksam als Flatrates bezeichnet werden.

Beim Prepaid wird jede Leistung direkt von einem aufladbaren Guthabenkonto abge- bucht, Grundgebühren und Mindestumsätze kommen in Ausnahmefällen vor. [124] Im Idealfall befindet sich das Guthaben auf der SIM-Karte; wenn diese erschöpft ist, kön- nen außer Notrufiiummem keine anderen Teilnehmer angerufen werden. Zunehmend stellen die Provider auf Tarife um, die ein Aufladen des Guthabens per Abbuchung vom Konto des Kunden erlauben. Zeitweise war durch die AGB oder durch Zustimmung des Kunden hierzu ein mehrfaches automatisches Abbuchen ohne weitere Rückfrage er- möglicht.

Mittlerweile haben Gerichtsurteile dies als überraschende Klausel abgelehnt und auf das maximal einmalige automatische Abbuchen eines Festbetrags beschränkt hn deutschen Sprachraum sowie in Ländern mit größeren deutschsprachigen Bevölkerungsteilen sind verschiedene Netzbetreiber vertreten: Wie alle Geräte mit integriertem Computer ist auch ein Mobilfunktelefon nicht frei von Softwarefehlem. Bislang sind einige wenige Handyviren für auf Symbian basierende Geräte bekannt. Viren, die in der Lage sind, Mobiltelefone lahmzulegen, basieren meist auf Softwarefehlem. Gefahren bestehen vor allem in Form von Schadprogrammen, die sich in Dienstemitteilungen unter falschen Namen ausgeben oder durch das sogenannte Bluejacking, das Fehler in der Bluetooth- Implementierung ausnutzt. Es empfiehlt sich, Bluetooth nur bei Bedarf einzuschalten oder sich zumindest für andere unsichtbar zu machen. Unerwartete Bluetooth- Nachrichten sollten abgewiesen werden.

Da Mobiltelefone aktiv elektromagnetische Wellen aussenden, sind die Auswirkungen dieser Wellen im Rahmen der elektromagnetischen Umweltverträglichkeit zu prüfen. Es gibt Menschen, die beim telefonieren, subjektiv unterschiedliche Symptome wahmeh- men (von Wärme bis hin zu leichtem Druck oder Kopfschmerzen). Unklar ist, ob die Symptome vom mechanischen Anlegen des Hörers, und der deshalb lokal verringerten Kühlung der Hautoberfläche, dem Nocebo-Effekt oder objektiv von der elektromagneti- sehen Beaufschlagung des Gewebes verursacht werden. In verbündeten Experimenten konnte die Wahrnehmung von durch Mobiltelefonen ausgelösten Symptomen nicht be- stätigt werden. Auch im Akku eines Mobiltelefons entsteht beim Betrieb Wärme, die sich gegebenenfalls durch Wärmeleitung auf das Gewebe überträgt.

Umstritten und nicht vollständig geklärt ist, welchen Einfluss die Wirkungen von Mo- bilfunkstrahlung auf die Entstehung von Krebs haben.

-Eine 2006 im British Medical Journal publizierte Studie zeigte, dass Telefonieren mit dem Mobiltelefon - auch nach einer längeren Nutzungsdauer (ca. zehn Jahre) - nicht das Risiko erhöht, an einem Hirntumor zu erkranken. Nach Auswertung der Daten von insgesamt 2682 Personen, davon 966 Tumorpatienten, kamen die Forscher zu dem Schluss, dass Mobilfunkstrahlung als Risikofaktor zumindest für die in der Studie be- trachteten Himtumore vom Gliom-Typ ausscheide.

-Dieser Mangel im Studiendesign veranlasste Professor Lennart Hardell (Universitäts- krankenhaus Örebro) und Professor Kjell Hansson Mild (Universität Umeä) zu einer Metastudie, bei der sie insgesamt 11 Studien neu bewerteten. Mit dem Ergebnis, dass bereits bei einer täglichen Nutzung des Mobiltelefons von einer Stunde über einen Zeit- raum von zehn Jahren die Wahrscheinlichkeit, an Gehirntumor oder an Akustikusneuri- nom zu erkranken um das Dreifache ansteigt (und um das Fünffache an der Seite, an der das Mobiltelefon genutzt wird). Da für die Entwicklung von Gehirntumoren zumindest zehn Jahre vorausgesetzt wird, rechneten Hansson und Mild im Jahre 2007 mit einem Ansteigen in naher Zukunft.

-Nach einer am 24. März 2012 im British Medical Journal veröffendichten Studie blieb der erwartete Anstieg aus: Während die Anzahl der Mobiltelefonnutzer stark zunahm, blieb die Rate der Tumorerkrankungen etwa gleich, auch wenn man den von Hannson und Mild geforderten Abstand von 10 oder mehr Jahren zwischen Telefonnutzung und Erkrankungsbeginn berücksichtigte. -Auswertungen von Hardell et al. (2013) unter Berücksichtigung von Langzeitnutzung (> 20 Jahre) zeigen eine mit der Nutzungsdauer korrelierende Häufung speziell (gutar- tiger) Akustikusneurinome. Die WHO folgt in einer Veröffentlichung aus dem Jahr 2011 der Einschätzung der Internationalen Agentur für Krebsforschung, die Handy- strahlung als„möglicherweise krebserregend“ einstuft. Eine Studie aus dem Jahr 2006 kommt zu dem Schluss, dass es genetische bedingte Unterschiede gibt, was die Emp- findlichkeit von Zellen auf Strahlung durch Mobiltelefone betrifft.

Die Trägerfrequenzen von 900 MHz und 1800/1900 MHz liegen weit unterhalb der Frequenzen, bei denen es zu einer Ionisation von Molekülen kommen kann. Dazu kann es - wie beim photoelektrischen Effekt - erst bei etwa millionenfach höheren Frequen- zen von mindestens 800 THz = 800.000.000 MHz kommen. [139] Schädigungen ähnlich jenen durch UV-Strahlung oder Radioaktivität (Sonnenbrand, Krebs) durch Ionisierung können deshalb ausgeschlossen werden.

In wissenschaftlichen Studien seit Beginn der 1990er Jahre, insbesondere aus dem Ar- beitskreis des schwedischen Neurochirurgen Leif G. Salford an der Universität Lund, wurden Ergebnisse erzielt, die eine Öffnung der Blut-Him-Schranke im nicht- thermischen Bereich, nach der Exposition mit GSM-Frequenzen beschreiben. Andere Arbeitsgruppen können die Ergebnisse von Salford nicht bestätigen. Auch wird von an- deren Arbeitskreisen insbesondere die angewandte Methodik in Frage gestellt.

Die Studie„Schutz von Personen mit Implantaten und Körperhilfen in elektromagneti- schen Feldern des Mobilfimks, UMTS, DECT, Powerline und Induktionsfunkanlagen“ im Auftrag des damaligen deutschen Bundesministeriums für Wirtschaft und Arbeit aus dem Jahre 2005 kam zu dem Ergebnis, dass die Störung eines Herzschrittmachers durch 0,9 GHz-und 1,8 GHz-GSM-Mobilfunkstationen sowie 2,1 GHz UMTS- Mobilfunkstationen bei Einhaltung der Referenzgrenzwerte ausgeschlossen werden kann. Funkwellenexpositionen von Mobiltelefonen sowohl im 1,8 GHz-GSM-Bereich und UMTS-Frequenzbereich (2,1 GHz-Frequenzband) verursachen keine Störungen bei Herzschrittmachern. Selbes gilt auch für den Betrieb von GSM-Telefonen im 0,9 GHz- Band, wenn sie zum Telefonieren an den Kopf gehalten werden. Wurden bei der Studie GSM-Telefone, die im 0,9 GHz-Band senden, in einem Abstand von 5,5 cm zum Herz- schrittmacher vor die Brust gehalten, so traten bei 7 % der Herzschrittmacher Störungen auf. Dabei handelte es sich ausschließlich um Herzschrittmacher älteren Datums.

Weiterhin wird vermutet, die Strahlung der Mobiltelefone könne, wenn sie in der Ho- sentasche oder am Gürtel getragen werden, Männer unfruchtbar machen, da Spermien durch die Strahlung bewegungsunfähig werden könnten. Die Messungen beruhen je- doch teilweise nur auf ungenauen, unwissenschaftlichen Methoden, teilweise aber auch auf divergierenden Untersuchungen mehrerer Universitäten, die aber je nach Studien- Design zu unterschiedlichen Ergebnissen kommen und häufig zweifelhaft sind.

Das Bundesamt für Strahlenschutz (BfS) hält "nach dem derzeitigen wissenschaftlichen Kenntnisstand [..] die international festgelegten Höchstwerte [für ausreichend], um vor nachgewiesenen Gesundheitsrisiken zu schützen." Zum Schutz vor "Unsicherheiten in der Risikobewertung" empfiehlt es trotzdem die Exposition durch elektromagnetische Felder vorsorglich gering zu halten. [149] Es empfiehlt die Nutzung von Headsets, SMS, Mobiltelefone mit geringen SAR-Werten, Festnetz-Telefonie, kurze Telefonate und das Vermeiden von Gesprächen mit schlechtem Empfang. Im Jahr 2008 sprach es sich„gegen die Vermarktung von Kinderhandys aus, selbst wenn diese durch den Blau- en Engel gekennzeichnet sind.“ Diese Empfehlung findet sich allerdings nicht mehr auf der Webseite des BfS.

Am 30. März 2017 erging im italienischen Ivrea der Beschluss eines Arbeitsgerichtes unter Vorsitz von Dr. Luca Fadda, in dem erstmals eine Tumorerkrankung (Akustikusneurinom) als Folge häufigen beruflichen Mobiltelefontelefonierens als Be- rufskrankheit anerkannt wurde. Geklagt hatte der 57-jährige Roberto Romeo, der als Angestellter der Telecom Italia dienstlich 15 Jahre lang regelmäßig mit einem Mobilte- lefon telefonierte. Es handelt sich hier um ein Urteil einer untersten arbeitsgerichtlichen Instanz in Italien. 104. Smartphone

Weitere Ausführungsformen für die Erfindung:

Verwendung eines elekronischen Elementes (E) für ein Element zur Verwendung als ein Mobiltelefon- und/oder Smartphone und/oder Mobiltelefon- und/oder Smartphone- zubehörelement und/oder Verwendung des elektronischen Elementes (E) zur Verwen- dung für ein Element als Steuergerät und/oder ein Steuergerät enthaltend, vorzugsweise auf technischer Basis eines Mobiltelefons und/oder Smartphones, vorzugsweise zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtechnik, wobei die Frequenzbänder des elektronischen Elementes (E) erfindungs- gemäß Frequenzbandbreiten zwischen 1Hz und 100 GHz aufweisen, wobei das Mobil- telefon und/oder Smartphone vorzugsweise wenigstens einen Chipkartenleser- und/oder ein Speicherkartenlesegerät aufweist, mit wenigstens einem der im Folgenden aufge- führten technischen Merkmale:

Smartphone (['smaröfoun]; ['smcutfoun] AE, [’smait.faun] BE) (englisch, etwa „schlaues Telefon“) nennt man ein Mobiltelefon (umgangssprachlich Handy) mit um- fangreichen Computer-Funktionalitäten und Konnektivitäten. Bei eher fließendem Übergang dient der Begriff der Abgrenzung von herkömmlichen („reinen“) Mobiltele- fonen. Erste Smartphones vereinigten die Funktionen eines Personal Digital Assistant (PDA) bzw. Tabletcomputers mit der Funktionalität eines Mobiltelefons. Später wurden dem kompakten Gerät auch noch die Funktionen eines transportablen Medienabspielge- rätes, einer Digital- und Videokamera und eines GPS-Navigationsgeräts hinzugefügt. Zentrale Merkmale sind Touchscreens zur Bedienung sowie Computer-ähnliche Be- triebssysteme. Ein Intemetzugang ist wahlweise per mobiler Breitbandverbindung des Mobilfunkanbieters oder WLAN möglich.

Die ersten Smartphones gab es bereits in den späten 1990er Jahren, aber erst mit der Einführung des iPhones im Jahr 2007 gewannen sie nennenswerte Marktanteile. Der Begriff Smartphone stammt von der Firma Ericsson, welche ihr Modell R380 mit Sym- bian-Software, Touchscreen, Jntemetbrowser und Kalenderfunktionen um die Jahrtau- sendwende so nannte. Heute sind die meisten verkauften Mobiltelefone Smartphones. Durch den permanent mitgefuhrten Intemetzugang löste dies einen Wandel im Internet - Nutzungsverhalten aus, insbesondere bei sozialen Netzwerken wie Facebook oder Twit- ter.

Online-Enzyklopädien wie Wikipedia profitieren ebenso durch die permanente Verfüg- barkeit, da Artikel auch von unterwegs bearbeitet und Fotos deutlich einfacher hochge- laden werden können. Das meistverbreitete Smartphone-Betriebssystem ist das von fast allen Herstellern verwendete Android (Marktanteil nach Stückzahlen Q2 2015 etwa 83 %), mit einigem Abstand gefolgt von dem nur auf Apple-Geräten eingesetzten Apple iOS (Marktanteil nach Stückzahlen Q2 2015 etwa 14 %).

Smartphones können durch folgende Merkmale von klassischen Mobiltelefonen, PDAs und Electronic Organizern unterschieden werden:

-Smartphones sind bezüglich Konstruktion und Bedienung nicht nur für das Telefonie- ren optimiert, sondern sollen auf kleinem Raum die Bedienung einer breiten Palette von Anwendungen ermöglichen. Typische Merkmale sind daher im Vergleich zu älteren Mobiltelefonen relativ große und hochauflösende Bildschirme, alphanumerische Tasta- turen und/oder Touchscreens.

-Smartphones verfugen meist über ein Betriebssystem mit offengelegter API (siehe Ab- schnitt Betriebssysteme). Es ermöglicht dem Benutzer, Programme von Drittherstellem zu installieren. Mobiltelefone haben im Gegensatz dazu meist eine vordefinierte Pro- grammoberfläche, die nur begrenzt, z. B. durch Java- Anwendungen, erweitert werden kann.

-Smartphones verfugen oft über unterschiedliche Sensoren, die in klassischen Mobilte- lefonen seltener zu finden sind. Hierzu zählen insbesondere Bewegungs-, Foto- (RGB und schwarz-weiß), Lage-, Magnetfeld-, Licht- und Näherungssensoren sowie GPS- Empfänger. Durch diese Merkmale bieten Smartphones die Grundlagen zur mobilen Büro- und Da- tenkommunikation in einem einzigen Gerät. Der Benutzer kann Daten (etwa Adressen, Texte und Termine) über die Tastatur oder einen Stift erfassen und zusätzliche Software selbst installieren. Die meisten Geräte verfugen über eine oder mehrere Digitalkameras zur Aufnahme unbewegter und bewegter Bilder sowie für die Bildtelefonie.

Die bei PDAs z. B. zur Synchronisierung verwendeten Verbindungsarten, wie WLAN, Bluetooth, Infrarot oder die USB-Kabelverbindung, werden durch bislang in der Mobil- telefonie übliche Verbindungsprotokolle, wie GSM, UMTS (und HSDPA), GPRS und HSCSD, ergänzt.

So ist es beispielsweise möglich, unterwegs neben der Mobiltelefonie auch SMS, MMS, E-Mails sowie, bei modernen Geräten, Videokonferenzen per UMTS oder Inter- net-Telefonie (VoIP) mit WLAN über Intemet-Zugriffspunkte zu nutzen. Theoretisch - und zum Teil auch in der praktischen Nutzung - können damit neben Audio- und Vi- deostreamings aus dem Internet (zum Beispiel über WLAN) auch Fernsehprogramme über DVB-H und mit entsprechender Hardware auch DVB-T empfangen werden. Ein weiteres Beispiel ist die eingebaute oder optionale Java-Unterstützung (auf CLDC- oder MIDP-Basis) - Mobiltelefone gelten als eine der populärsten Anwendungen von Em- bedded Java.

Smartphones werden zunehmend auch für die Fernsteuerung von digitalen Geräten ein- gesetzt, wie zum Beispiel Kameras, Action-Camcordem, AV-Receivem, Fernsehgerä- ten oder Quadcoptem. Als das erste Smartphone gilt der von BellSouth und IBM ent- wickelte und von Mitte 1994 bis Anfang 1995 in einem Teil der USA als„Personal Communicator“ vertriebene Simon. [5] Vorreiter der Smartphone-Systeme war das PEN/GEOS 3.0 des Herstellers GeoWorks, das in der 1996 eingeführten Nokia- Communicator-Serie eingesetzt wurde. Als Nokia für die Communicator-Reihe 92x0, 9300, 9300i und 9500 auf einen anderen Prozessor wechselte, bildete das Unternehmen mit Psion und dessen EPOC-System eine Allianz, um die Symbian-Plattform zu ent- wickeln. Symbian war lange Zeit das meistgenutzte Smartphone-Betriebssystem und hatte im Jahr 2006 einen Marktanteil von etwa 73 %. Die wichtigsten Konkurrenten wa- ren Windows Mobile, Blackberry OS und Palm OS.

Die Einführung des iPhone mit seiner Multitouch-Bedienoberfläche im Jahr 2007 mar- kierte einen Wendepunkt im Smartphone-Markt. Neue Betriebssysteme wie Android, Palm webOS und Windows Phone 7 konnten hauptsächlich oder ausschließlich über Touchscreens bedient werden. Symbian verlor dadurch schnell an Bedeutung und lag im Herbst 2011 etwa gleichauf mit dem iPhone. Zwischen 2008 und 2011 kündigten al- le großen Hersteller von Symbian-Geräten an, in Zukunft auf andere Systeme zu set- zen.[7][8][9] Das am häufigsten installierte Mobil -Betriebssystem auf Smartphones ist seit Herbst 2011 Android von Google mit über 60 % Marktanteil, was an dem deutlich geringeren Durchschnittsverkaufspreis von Mobiltelefonen mit Android liegt. Ebenfalls mit einem signifikanten Marktanteil ist danach iOS von Apple zu erwähnen. Der finni- sche Hersteller Nokia, der für viele Jahre führender Hersteller von Mobiltelefonen war (1998 bis 2011), bot seit 2012 Smartphones fast ausschließlich mit dem Microsoft- Betriebssystem Windows Phone an, verkaufte jedoch seine Mobiltelefon-Sparte im Jahr 2014 an Microsoft.

Seit 2009 kommt es angesichts der zunehmenden Bedeutung von Smartphones zu zahl- reichen Rechtsstreitigkeiten um Patente und Designrechte, an denen alle großen Smart- phone-Hersteller beteiligt sind. Das 2013 eingeführte Galaxy S4 ist das erste TCO- zertifizierte Smartphone der Welt. Ende 2013 kam mit dem Fairphone das erste Smart- phone auf den Markt, bei dem Fairtrade- und Umweltaspekte eine größere Rolle spielen sollten. Der weltweite Absatz von Smartphones ist seit dem 4. Quartal 2017 rückläufig. Im Gesamtjahr (2017) wurden weltweit insgesamt 1,472 Milliarden Smartphones aus- geliefert, was einem Rückgang von weniger als 1 % gegenüber den 1,473 Milliarden Einheiten im Jahr 2016 entspricht. Die höchsten Marktanteile am Smartphone-Markt haben derzeit (Stand 2018) Samsung, Huawei und Apple.

Moderne Smartphones lassen sich dank einer großen Funktionsfülle je nach Ausstat- tung u. a. nutzen als: -Zentrale für vom Benutzer beabsichtigte (Mobiltelefon, Webbrowser, E-Mail, SMS, MMS sowie IP-Telefonie (VolP), Instant Messaging (IM) und Chat, teilweise auch Fax, Video-Telefonie und Konferenz-Schaltungen), aber auch nicht beabsichtigte (Abhöreinrichtungen, Spionage) Kommunikation

-Personal Information Manager (PIM) mit Adressbuch, Terminkalender, Aufgabenliste, Notizblock, Geburtstagsliste usw. mit Abgleich mit einer Desktop-Applikation oder über das Internet (Microsoft (Hosted) Exchange, Blackberry-Dienst)

-Diktiergerät

-Speicher und Versender von Daten aller Art, auch in Echtzeit

-Medienfunktionen mit Mediaplayer, Radio, Bildbetrachter, Foto- und Videokamera -Taschencomputer (beispielsweise Textverarbeitung, Tabellenkalkulation, PDF -Reader, Taschenrechner)

-Funk-Modem für den PC, auch Tethering genannt

-Navigation mit Navigationssystem und Landkarten bzw. Mittel zur Bestimmung des eigenen Aufenthaltsorts durch andere

-Gerät für standortbezogene Dienste (Location Based/Aware Services), wie mobile Umgebungssuche (von sogenannten Points of Interest)

-mobile Spielkonsole

-Enterprise Mobility Client: Mobiles Zugangsgerät (i. d. R. als Thin Client) zu GG- Diensten und Servern innerhalb einer Untemehmensinfrastruktur, Einsatzbeispiele: ERP, CRM, Warenwirtschaftssystem, Spezial- und Branchenlösungen in der Industrie, Logistik, Medizin (KIS Krankenhausinformationssystem)

-finanzielle Ressource im bargeldlosen Zahlungsverkehr

-Ersatz für Alltagsgegenstände (beispielsweise als Uhr, Wecker oder Taschenlampe / Lichtquelle)

Smartphones sind in unterschiedlichen Bauformen verfügbar, die sich nicht klar von- einander abgrenzen lassen. Ein häufiges Merkmal ist eine QWERTZ-Tastatur, die ent- weder eingeklappt bzw. eingeschoben werden kann (bspw. Samsung F700 Qbowl) oder fest an der Gerätefront angeordnet ist (bspw. Nokia E61i). Letztere Bauform wird auch als Q-Smartphones (Q = Qwertz oder Qwerty) bezeichnet. Die meisten Smartphones haben einen Touchscreen und lassen sich ähnlich einem PDA bedienen. Während einige Geräte (bspw. Apple iPhone) komplett auf die Bedienung mit den Fingern ausgelegt sind (diese Bauform wird auch als Touch-Phone bezeichnet), sind bei anderen Geräten viele Funktionen mit einem Eingabestift bedienbar (bspw. Sony Ericsson Pli). Prak- tisch alle Smartphones besitzen eine Front- und eine Rückkamera, wobei die Rückka- mera in der Regel mit wesentlich höherer Auflösung, vom Betrachter weg gerichtet ist, während die Frontkamera der Videotelefonie bzw. der Aufnahme von Selbstporträts (Selfies) dient.

Die Wortschöpfungen Phablet (im deutschsprachigen Raum auch Smartlet) bezeichnen Mischformen aus Smartphones und Tablet-Computem. Es handelt sich dabei um Smartphonemodelle mit überdurchschnittlich großen Bildschirmen. Phablets sind klei- ner als gängige Tablets; für sie werden Bildschirmgrößen von ungefähr 5 bis 7 Zoll (ca. 13 bis 18 cm) angegeben. Beispiele für Phablets sind Apple iPhone 6 Plus, LG G Flex, Nokia Lumia 1520, Samsung Galaxy Note 3, Nexus 6 und Sony Xperia Z Ultra.

Der Terminus wurde in einem technologischen Artikel (bezüglich des Dell Streak) erstmals 2010 verwendet. Popularität erhielt er mit dem Erscheinen des Galaxy Note (2011) von Samsung, welches mit seinem Überraschungserfolg den Phablet -Boom aus- löste. , phablet“ trägt einen spöttelnden Unterton, der auf die Komik bei der Handha- bung solch großer Geräte abzielt („An awkward term for supersize devices that can seem rather ridiculous to use“).

Der russische Anbieter Yota stellte eine Variante eines Smartphones vor, bei der neben der herkömmlichen Flüssigkristallanzeige ein zweiter Bildschirm mit elektronischem Papier auf der Rückseite des Gerätes verfügbar ist, der auch bei hellem Umgebungslicht gut ablesbar, aber noch nicht berührungsempfindlich ist.

Da Smartphones komplexer sind als einfache Mobiltelefone, ist ein Smartphone eher als ein System zu betrachten: Es besteht im Grunde aus mehreren unterschiedlichen, mit- einander vernetzten Geräten. Insbesondere das Mobilfunk-Modul bzw. -Modem ist da- bei ebenfalls nur eines von vielen Geräten. Es hat daher zum Teil eine eigene Firmware und operiert in gewissem Maße unabhängig vom Rest des Systems, wie etwa beim Apple iPhone oder bei den Android-Geräten.

Smartphone-Betriebssysteme sind grundsätzlich in mehreren Schichten aufgebaut (Sy- stemarchitektur). Diese Architektur ist in der Regel konstituiert durch einen Kern, eine Schicht für grundlegende Funktionen und Bibliotheken sowie weiteren Schichten, auf welchen Anwendungen ausgefuhrt werden bzw. mit dem User und den darunterliegen- den Schichten kommunizieren. Die detaillierte Ausgestaltung der Systemarchitektur hingegen ist Betriebssystem-spezifisch und bildet eines der Abgrenzungskriterien unter den verschiedenen Smartphone-OS.

So gliedert sich das Android-OS in einen Linux-Kemel, die Android Runtime, die Li- braries, ein Applications Framework sowie die Applications. Der Linux-Kemel 2.6, welcher dem Betriebssystem zu Grunde liegt, wurde von den Betreibern stark verändert und an die Erfordernisse für den Einsatz auf mobilen Endgeräten angepasst. Dabei wur- den verschiedene Treiber und Bibliotheken stark verändert bzw. gänzlich ersetzt. Dies betrifft vor allem das im Kemel angelegte Speichermanagement. Neu in der Android- Version des Linux -Kemels ist u. a. ein Treiber namens Binder. Durch diesen wird es ermöglicht, dass unterschiedliche Prozesse miteinander kommunizieren können, indem gemeinsam auf im Shared Memory angelegte Objekte zurückgegriffen wird. Die Ver- gabe von Zugriffsberechtigungen wird dabei über einen Android-spezifischen Treiber namens Ashmen geregelt. Ziel dabei ist es vor allem, möglichst ressourcenschonend zu operieren.

Die über dem Kemel liegende Ebene beinhaltet Android Runtime und die Bibliotheken. Im Bereich der Bibliotheken wird weitestgehend auf die Standard-Linux-Bibliotheken zurückgegriffen. Um auch auf dieser Ebene maximale Ressourcenschonung erreichen zu können, ist zusätzlich die C-Bibliothek Bionic implementiert. Innerhalb der Android Rimtime findet sich neben einigen Kemkomponenten die Dalvik Virtual Machine - ei- ne Google-Eigenentwicklung. Jede Anwendung läuft dabei auf einer eigenen DVM als ein eigener Prozess. Diese kann via IPC-Treiber mit anderen Prozessen (oder Teilen davon) kommunizieren. Die DVM arbeitet mit einem eigenen Bytecode (dex- Bytecode).

Das Applications Framework bildet den Rahmen, mittels dessen den verschiedenen Anwendungen der Zugriff auf verschiedene Hardwarekomponenten erlaubt wird (API). Android greift hierbei, wie die meisten anderen Smartphone-Betriebssysteme auch, auf Sandboxing zurück, d. h., Anwendungen werden nur in einem strikt abgegrenzten Be- reich ausgeführt. Die oberste Applications-Ebene beinhaltet die eigentlichen Anwen- dungen (Apps) sowie die Kemkomponenten (Kontakte, Browser, SMS etc.). Das iOS wird ebenfalls durch verschiedene Schichten konstituiert. Namentlich sind diese die Core OS, die Core Services, Media, Cocoa Touch.

Ganz grundlegende Unterschiede bestehen jedoch zwischen den Betriebssystemen, welche auf einem monolithischen Kemel aufgebaut sind (Android, Windows Phone, iOS u. a.), und solchen, die auf Micro-Kemel zurückgreifen. Diese Technik wird jedoch (im Bereich der Betriebssysteme mit nennenswertem Marktanteil) aktuell nur durch das Blackberry OS und Symbian-OS realisiert. Über die Systemarchitektur hinaus lassen sich die verschiedenen Betriebssysteme durch zahlreiche weitere Kriterien voneinander abgrenzen. Deutlichstes Abgrenzungsmerkmal hierbei ist die Herstellerbindung. Wäh- rend die Verwendung von Android, Windows Phone, Symbian und Firefox nicht an einzelne Gerätehersteller gebunden ist, findet sich das Betriebssystem iOS ausschließ- lich auf Geräten von Apple und Blackberry OS ausschließlich auf Geräten von Black- berry wieder.

Auch in Anzahl und Verfügbarkeit der Apps unterscheiden sich die verschiedenen Be- triebssysteme mithin gravierend. Während für Android und iOS jeweils mehr als 1.000.000 verschiedene Apps erhältlich sind, bewegen sich die übrigen Betriebssysteme im unteren sechsstelligen Bereich, was die Zahl der verfügbaren Anwendungen betrifft. Eine zusätzliche Unterscheidung kann in diesem Zusammenhang auch im Bereich der Verfügbarkeit bzw. Bezugsmöglichkeiten der verschiedenen Apps getroffen werden. Während Android-Apps (nach expliziter Freigabe durch den Nutzer) nicht nur über den Google Play Store, sondern auch über Drittanbieter bezogen werden können (analog Firefox OS und Blackberry), ist die Installation von z. B. iOS-Anwendungen nur via App Store von Apple möglich (analog Windows).

Die Sicherheit betreffend, gilt Android als das fragilste Betriebssystem (einbezogen in die zugrundeliegende Untersuchung waren Android, iOS, Windows Phone 7 und Blackberry 6.x). Dies ist vor allem auf die weniger konsequente Sicherheitspolitik hin- sichtlich der Richtlinien und Einstiegshürden für App -Entwickler zurückzuführen. So müssen Android-Entwicklungen nicht abschließend geprüft, zertifiziert und signiert werden, was es schlussendlich ermöglicht, Apps, welche gravierende Sicherheitslücken aufweisen bzw. welche selbst Schadsoftware stellen, in Google Play einzustellen. We- sentlich restriktiver sind die Sicherheitsrichtlinien bei iOS und vor allem bei Blackber- ry. Bei diesen, aber auch bei Windows Phone, muss jede erstellte Anwendung zusätz- lich geprüft und zertifiziert werden. Vor allem Blackberry besteht hierbei auf die Ein- haltung von über 400 verschiedenen Richtlinien. Ein Sicherheitsrisiko bei iOS kann ein Jailbreak darstellen. Durch einen Jailbreak werden root-Benutzerrechte freigeschaltet, welche es ermöglichen, jegliche Art von Software, einschließlich Schadsoftware auszu- führen.

Der Prozessor übernimmt, wie in jedem Computersystem, die anfallenden Rechenope- rationen. Je nach Hersteller und Modell gibt es dabei große Leistungsunterschiede. Während ältere und vor allem kostengünstigere Geräte nur eine relativ geringe Pro- zessorleistung haben, können Spitzenmodelle im Jahr 2017 mehrere Prozessorkeme und eine Taktrate von über 2 GHz aufweisen. Die meisten in Smartphones verbauten Pro- zessoren basieren auf lizenzierten Designs der ARM-Architektur. Die Verwendung des x86-Befehlssatzes wie bspw. bei Motorolas RAZR i, ist bei Smartphones im Gegensatz zu Notebooks, wo x86 dominiert, die Ausnahme. In Nokias N-Serie haben Prozessoren von Texas Instruments große Verbreitung gefun- den. Diverse Geräte, darunter das N70, N80 und N90, sind mit dem TI OMAP 1710 ausgestattet, der mit einer Taktrate von 220 MHz arbeitet. Die Modelle Nokia N93 und N95 verfügen über den TI OMAP 2420, der mit 330 MHz getaktet ist. Dadurch sind diese Geräte schneller zu bedienen und eignen sich durch eine verbesserte Grafikeinheit bereits für Videospiele.

In den HTC-Modellen Touch Diamond, Touch Pro und Touch HD kommen Qual- comm-Prozessoren mit einer Taktfrequenz von 528 MHz zum Einsatz. Da HTC in die- sen Geräten jedoch Windows Mobile als Betriebssystem einsetzt, welches mehr Ar- beitsspeicher und Rechenleistung benötigt, bietet die höhere Prozessorleistung keinen merklichen Vorteil hinsichtlich der Arbeitsgeschwindigkeit. Mit 620 MHz nochmals höher ist die Prozessor-Geschwindigkeit des Apple iPhone 3GS aus dem Jahr 2009. Hier laufen auch rechenintensive Funktionen wie Multi-Touch weitgehend ruckel- und verzögerungsfrei.

Im Jahr 2010 waren die mit einer Taktfrequenz von 1 GHz bis dato schnellsten in einem Smartphone verbauten Prozessoren im Toshiba TG01, dem Anfang 2010 erschienenen Google Nexus One sowie dem HTC HD2 und dem HTC Desire mit einem Snapdragon- Prozessor von Qualcomm zu finden. Das Sony Ericsson Xperia X10 und das HP Palm Pre 2 werden ebenfalls mit einem 1 -GHz-Prozessor betrieben. Weiterhin besitzt das Samsung Galaxy S einen 1 -GHz-Prozessor mit Namen Hummingbird.

LG Electronics hat mit dem P990 Optimus Speed/2X im März 2011 das erste Smart- phone mit einem Dual-Core-Prozessor veröffentlicht. Später zogen weitere Hersteller nach, wie zum Beispiel Samsung mit dem Modell Galaxy S II, HTC mit dem im Mai 2011 erschienenen Modell Sensation, in dem ein Prozessor des Typs Qualcomm MSM8260 mit einer Taktrate von 1,2 Gigahertz verbaut ist, und Motorola mit dem Ge- rät Droid Razr. Das Apple iPhone 4s, das im Oktober 2011 erschien, hat ebenfalls einen Dual-Core-Prozessor des Typs Apple A5. 2012 erschienen die ersten Smartphones mit Quad-Core-Prozessoren, deren Prozesso- ren also vier Kerne aufweisen. Das erste war das HTC One X. Des Weiteren erschienen im Mai das Samsung Galaxy S PI mit dem Samsung eigenen Prozessor Exynos 4 Quad und das LG Optimus 4X HD, welches ebenso wie das HTC One X einen Tegra-3- Prozessor des Chipherstellers Nvidia verwendet. Die Dual-Core-Prozessoren Apple A6(X), die im iPad 4 oder iPhone 5 verbaut sind, haben eine ähnliche Leistung wie der Exynos 4 Quad.

Ende 2012 bzw. Anfang 2013 wurde die zweite Generation von Quad-Core- Prozessoren veröffentlicht, die im Gegensatz zur ersten Generation (z. B. Tegra 3), die auf Cortex-A9-Keme setzte, nun oft entweder auf der leistungsfähigeren Cortex-A15- Architektur basierte (Tegra 4) oder auf einem ARM-Befehlssatz kompatiblen Eigende- sign beruhte, das von der Leistungsfähigkeit zwischen der Cortex-A9- und Cortex-A15- Architektur anzusiedeln ist, aber sehr energieeffizient ist. (Qualcomm Snapdragon S4 Pro, 600, 800). Der Dual-Core-Prozessor des iPhone 5S, der Apple A7, der im Septem- ber 2013 erschien, ist der erste 64-Bit-Prozessor auf dem Markt.

Moderne Smartphones werden teils mit Acht-Kem-Prozessoren (Octa-Core) ausgestat- tet, so etwa das HTC One M9 (Snapdragon 810) oder das Samsung Galaxy S6 (Exynos 7420). Dabei ist die Anzahl der Kerne etwa seit dieser Zeit kein Garant mehr für eine hohe Rechenleistung, denn auch Einsteigersmartphones verwenden seither Prozessoren mit vier, acht oder sogar zehn Kernen. Diese bieten jedoch insgesamt keine vergleich- bare Leistung zu teureren Geräten, da diese Prozessoren von der Größe her kleiner sind und größere Transistoren verwenden, sodass beispielsweise der Zweikem- Apple A9 des Apple iPhone 6s weitaus mehr Leistung als der Achtkem-Snapdragon 430 des zwei Jah- re später veröffentlichten Nokia 6 bietet.

Die Betriebsdauer hängt ab von der Kapazität des Akkus und dem Stromverbrauch über die Zeit. Im ausgeschalteten Zustand benötigt lediglich die eingebaute Uhr Energie. Im Bereitschaftsmodus mit ausgeschaltetem Display ist ein Smartphone mehrere Tage be- triebsbereit, etwa um einen Anruf entgegenzunehmen oder einen Notruf abzusetzen, was im Fall von Notsituationen ohne Möglichkeit, das Gerät nachzuladen, bedeutsam ist. Im Betrieb erhöht sich der Energiebedarf deutlich. Das Empfangen oder auch schnelle Eingeben und Versenden einer SMS benötigt wegen der kurzen Übermitt- lungsdauer besonders wenig Energie. Spitzenwerte der Mobilfunk-Sendeleistung liegen im Bereich von einem Watt. WLAN benötigt ähnlich viel Energie, auch wenn keine Daten übertragen werden. Zu entfernteren Stationen oder in abgeschatteten Situationen muss mit höherer Leistung gesendet werden. Um möglichst lange telefonieren zu kön- nen, sollten WLAN und Bluetooth ausgeschaltet sein, ebenso die Hintergrundbeleuch- tung. Dauerhaft aktiviertes GPS zieht Leistung auf Kosten der erreichbaren Stand-by- Zeit.

Vermehrt werden einzelne Modelle oder Modellvarianten mit Dual-SIM- bzw. Double- SEM-Funktion (mitunter auch für 3 oder mehr SIM-Karten) ausgefuhrt. Das ermöglicht beispielsweise die klare Trennung von privaten und geschäftlichen Gesprächen, ent- sprechende Erreichbarkeitszeiten und Adressverzeichnisse. Im Inland können so zwei Tarife/Verträge nebeneinander oder bei Reise ins Ausland überwiegend die SIM eines kostengünstigeren lokalen Anbieters genutzt werden. Die Plätze können auch unter- schiedliche SIM-Formate unterstützen.

Viele Hersteller, darunter Apple, HTC, LG, Motorola, Nokia, Samsung und Sony, ver- bauen bei vielen neuen Smartphones mittlerweile den Akku in einer Art, dass ein Wechsel nur mit hohem Aufwand bzw. nicht zerstörungsfrei möglich ist. Das kann zu einer verkürzten Lebensdauer der Geräte fuhren und ist problematisch beim Recycling, da die notwendige Entfernung des Akkus zur Zeit (Stand 2012) unwirtschaftlich ist. Daher trit der ehemalige Präsident des Umweltbundesamts Jochen Flasbarth für ein Verbot fest verbauter Akkus ein.

Verbraucherschützer beklagen die mangelnde Updatepolitik der Hersteller. Nur die Topmodelle erhalten größere Aktualisierungen, während die meisten anderen Geräte leer ausgehen. Das Problem ist insbesondere bei Android ausgeprägt. Da fehlende Up- dates u. a. ein Sicherheitsrisiko darstellen, sehen Verbraucherschützer hier einen Fall von geplanter Obsoleszenz. Zudem wird die schlechte Informationspolitik der Herstel- ler über ihre Updatepolitik kritisiert. Der Verbraucher erfahrt in den meisten Fällen nicht ob und wie viele Updates für das Gerät geplant sind. Daher verklagte Anfang 2016 die niederländische Verbraucherzentrale den Hersteller Samsung ungenügende Angaben zur Update-Versorgung neuer Android-Geräte zu machen.

Laut einer Befragung im Auftrag des Digitalverbands Bitkom nutzten in August 2017 über drei Viertel (78 Prozent) aller Bundesbürger ab 14 Jahren ein Smartphone. Das entspricht etwa 53 Millionen Menschen. In der Altersgruppe der 14- bis 29-Jährigen nutzten 95 Prozent ein Gerät. In der Altersgruppe der 30- bis 49-Jährigen waren 93 Pro- zent Smartphone-Nutzer, bei den 50- bis 64-Jährigen waren es 88 Prozent. Unter Bun- desbürgern älter als 65 Jahre nutzte rund jeder Vierte (27 Prozent) ein Smartphone. Im Februar 2019 wurde die Zahl der Smartphone-Nutzer in Deutschland auf fast 65 Millio- nen geschätzt.

Im Jahre 2016 wurden in Deutschland 24,2 Millionen Smartphones verkauft. Dabei lag der Umsatz bei 9,4 Milliarden Euro. Die„Internet-AG Enigma“ an der Johann Wolf- gang Goethe-Universität Frankfurt am Main beschäftigte sich 2013 mit der Frage, wie Smartphones und Tablets das soziale Leben beeinflussen. Dabei folgten die Autoren ei- nem Leitsatz Karl Steinbuchs:„Nichts zwingt den Menschen, die ungeheuren Möglich- keiten der Wissenschaft und Technik zu seinem Unheil zu verwenden, alle Wege sind offen, Wissenschaft und Technik zu seinem Wohle zu verwenden.“ Prinzipiell positiv sei es zu bewerten, dass:

-sich die Gesellschaft in eine„informierte Gesellschaft“ verwandele (Smart Devices ermöglichten den Zugang zu grenzenlosem Wissen, immer und überall);

-Smart Devices dem Nutzer ermöglichten, nicht nur Konsument von Inhalten, sondern auch deren Produzent zu sein (Texter Stellung, Fotos, Videos);

-Reisevorbereitungen und das Reisen selbst erleichtert würden;

-immer und überall Musik gehört werden und Videos angeschaut werden könnten; -zeitversetztes Fernsehen möglich sei;

-es keine Hindernisse mehr gebe, eine Vielzahl von Fotos aufzunehmen; -zum Einkäufen nicht mehr das Haus verlassen werden müsse;

-ständig Gesundheitsdaten erhoben und weitergeleitet werden könnten;

-Änderungen im bzw. am eigenen Haus nicht mehr die Anwesenheit von Menschen voraussetzten; deren Anwesenheit könne potenziellen Einbrechern dennoch vorge- täuscht werden;

-soziale Kontakte aus der Feme in Echtzeit und preiswert gepflegt werden könnten.

Diese Vorteile seien schwerwiegender als die von der Internet-AG konzedierten Nach- teile. In seinem Buch Die Smartphone-Epidemie. Gefahren für Gesundheit, Bildung und Gesellschaft vertritt der Neurologe und Medienpsychologe Manfred Spitzer die These, dass Smartphones in besonderer Weise zur digitalen Demenz bei denen beitrü- gen, die das Medium exzessiv nutzten. Dadurch nehme die durchschnittliche Intelligenz der Menschen in denjenigen Ländern ab, in denen die Digitalisierung starke Fortschritte mache. Die häufige Benutzung von Smartphones führt Spitzer zufolge zu Bewegungs- mangel, Adipositas, Haltungsschäden, Diabetes, Hypertonie, Myopie, Insomnie, einer Erhöhung der Zahl von Unfällen und Geschlechtskrankheiten, Angst ("Fear of missing out" / "Fomo"), Mobbing, Aufmerksamkeitsstörungen, Depression / Suizidalität, Empa- thieverlust, verminderter Lebenszufriedenheit, Alkohol- und Drogensucht, Smartphone- und Online-Spiele-Sucht, geringerer Bildung, geringerem gegenseitigen Vertrauen, verminderter Fähigkeit zur Willensbildung, weniger Naturerleben, geringerer Förde- rung von Nachhaltigkeit, mehr Anonymität, weniger Solidarität, mehr sozialer Isolation und Einsamkeit, geringerer Gesundheit der Bevölkerung und einer Gefährdung der Demokratie.

Die ÄrzteZeitung unterzog im Dezember 2018 sieben Behauptungen über Gesundheits- risiken, die von Smartphones ausgehen sollen, einem Faktencheck. Als zutreffend wur- den die Aussagen bewertet, wonach:

-Smartphones süchtig machen können;

-Smartphones dem Rücken und den Händen des Nutzers schaden; -Nutzer, die abends lange auf ihr Smartphone schauen, dazu neigen, schlecht einzu- schlafen.

Möglich, aber nicht erwiesen sei es, dass

-das blaue Licht des Smartphones die Netzhaut der Augen schädigen und sogar zur Er- blindung fuhren könne (vgl. LED-Leuchtmittel);

-die elektromagnetische Strahlung von Smartphones Krebs verursachen könne.

Vermutlich falsch seien die Behauptungen, wonach

-schon allein der WLAN-Betrieb eines Smartphones schädliche Strahlung verursachen könne;

-ein Handy in der Hosentasche bei Männern die Fruchtbarkeit reduzieren könne.

Das exzessive Nutzen von Smartphones überfordert die Daumen. Das Repetitive-Strain- Injury-Syndrom beispielsweise beschreibt einen anhaltenden Schmerz im Daumen. Dieser wird dadurch verursacht, dass der Daumen anatomisch gesehen nur zum Gegen- halten für die anderen Finger ausgelegt sei, nicht aber für feinmotorisches Tippen auf der Smartphone-Oberfläche.

Der Neurologe Hans-Peter Thier bezweifelt, dass es den Sachverhalt„digitale Demenz“ gebe:„Unter Demenz versteht die Medizin einen Verlust ursprünglich verfügbarer ko- gnitiver Fertigkeiten - ein Verlust des Gedächtnisses, eine Einschränkung des Denk- vermögens, Orientierungsstörungen und letztendlich einen Zerfall der Persönlichkeits- struktur. Demenzen können viele Ursachen haben. Ein Beispiel sind Himschäden infol- ge von Durchblutungsstörungen. Gemeinsamer Nenner der Ursachen sind Veränderun- gen der Struktur und der physiologischen Prozesse im Gehirns [sic!], so dass sie weit vom Normalen abweichen. Was immer die Nutzung digitaler Medien im Gehirn ma- chen mag - es gibt keinerlei Evidenz dafür, dass sie zu fassbaren krankhaften Verände- rungen im Gehirn führt.“ Einem Gehirn könne man durch keine Untersuchungsmethode anmerken, ob es zu einem intensiv digitale Medien Nutzenden gehöre, so Thier. Es ge- be im Gegenteil Hinweise darauf, dass sich bei Senioren Surfen im Internet positiv in der Alzheimer-Prophylaxe auswirke. Forscher der Universität Zürich haben allerdings in einer Studie herausgefunden, dass die ständige Nutzung eines Smartphones das Gehirn insofern verändere, als durch häu- fige Smartphonenutzung der somatosensorische Kortex des Gehirns verändert werde, insbesondere jene Bereiche, welche für Daumen und Zeigefinger zuständig seien. Das hätten Messungen per Elektroenzephalografie ergeben. Für die Nutzung sozialer Netz- werke auf dem Smartphone ergibt sich aus strukturellen Himdaten, dass Menschen, die mehr Zeit auf ihnen verbringen, möglicherweise verringerte Volumen im Nucleus ac- cumbens haben.

Wissenschaftler der Fakultät„Medical Life Sciences“ der Hochschule Furtwangen ha- ben sich der weit verbreiteten These angenommen, wonach sich auf der Bildschirm- oberfläche von Smartphones verschiedene Arten von krankheitserregenden Keimen und Bakterien anhäufen und so die Gesundheit des Nutzers gefährden könnten. Mehrere La- bortests haben ergeben, dass sich durchschnittlich etwa 100 verschiedene sowohl schäd- liche als auch ungefährliche Bakterienarten dort sammeln, jedoch sei die Bakteri- enanzahl beispielsweise auf einer Küchenarbeitsfläche in etwa doppelt so hoch.

Eine Studie einer amerikanischen Versicherung ergab, dass fast die Hälfte aller Auto- fahrer zwischen 18 und 29 Jahren das Internet nutzen, während sie ein Auto fahren. 2010 starben in den USA 3092 Menschen, und es wurden 400.000 Menschen verletzt, weil der Fahrer abgelenkt war. In Deutschland ist nach Paragraph 23 der StVO jede Nutzung eines Smartphones verboten, bei der das Gerät„aufgenommen oder gehalten“ werden muss. Verstöße werden mit 100 Euro Bußgeld und einem Punkt in Flensburg geahndet.

Auch Unfälle von und mit Fußgängern nehmen zu. Beim Ablesen des in Brusthöhe ge- haltenen Bildschirms wird der Kopf in der Regel abgesenkt und dadurch das Gesichts- feld von oben geradeaus bis in die Waagrechte durch die Augenbrauen und zusätzlich auf den Ort des Aufsetzen der nächsten zwei Schritte unmittelbar vor einem durch das Gerät abgeschattet. Die in dichtem Verkehr, gerade auch im Fußgängergewühl, fast dauernd geübte Kommunikation durch Blickkontakt oder früher Andeutung der beab- sichtigten Bewegungsroute entfällt dadurch. Die sicherheitsrelevante Vorhersehbarkeit des Verhaltens durch andere Verkehrsteilnehmer nimmt dadurch stark ab oder wird zumindest sehr unstet.

Dazu kommt die Fokussierung der Aufmerksamkeit auf das Gerät, wodurch irreguläre Gefahren sogar innerhalb des eingeschränkten Gesichtsfelds, wie ein auf den Gehsteig zufahrendes Auto oder ein rechtskonform am Gehsteig rollender Inlineskater, nur se- kundär, langsamer wahrgenommen werden und später die Aufmerksamkeitsschwelle überschreiten. Besonders hohe Belegung der Sinne erfolgt, wenn parallel zur Bild- schirmbetrachtung auch graduell die Ohren abdichtende Ohrhörer eingesetzt sind und zusätzlich laute Musik gehört wird. In der Jugendsprache wird ein Fußgänger mit die- sem Verhalten als Smombie (Kofferwort aus Smartphone und Zombie) bezeichnet. Um Gefahren, wie das Übersehen einer roten Fußgängerampel durch die Nutzung des Smartphones mit abgesenktem Kopf, zu verringern, haben einige Städte an Fußgänger- ampeln zusätzlich Bodenampeln installiert, welche durch auf dem Boden angebrachte, rote Blinklichter zeigen, ob die Fußgängerampel auf rot oder grün steht.

Ähnliche Gefahren treten bei Sport, Flug oder Arbeit auf. Andererseits kann Musik sportliche Dauerleistung fördern und auch Einschlafen verhindern, gerade auch bei ei- ner Autofahrt hinter monotonen Lärmschutzwänden, die landschaftliche Reize verber- gen. Abstürze zu Fuß bei gewagten Selfies, besonders an Geländekanten und Gelän- dern, werden genauso berichtet, wie Autounfälle, die durch Filmen und Fotografieren verursacht werden. Dies tritt mit anderen Kameras ohne (großen) Bildschirm, wie Ac- tioncams, allerdings ebenfalls auf.

Eine große Gefahr stellt die psychische Abhängigkeit vieler Smartphone -Nutzer von ih- ren Geräten dar. Der Verzicht auf das Smartphone, um Stress zu reduzieren und sich wieder vorrangig dem Real Life (RL) zu widmen, wird als Handyfasten bezeichnet oder auch unter dem Begriff Digital Detox subsumiert. Eine häufig bei Smartphone- Benutzem anzutreffende Angst besteht darin, dass die Betreffenden befürchten, etwas Wichtiges zu verpassen, wenn sie nicht innerhalb von Sekunden in der Lage sind, auf Signale ihres Gerätes zu reagieren (siehe Fear of missing out). Der rationale Kem dieser Angst besteht darin, dass in einer sich beschleunigenden Welt das Verständnis für eine „zu langsame“ Reaktion eines Nutzers digitaler Medien tendenziell abnimmt. Bei Inan- spruchnahme der„normalen“ Post kann beispielsweise frühestens nach zwei Tagen eine schriftliche Reaktion des Angeschriebenen vorliegen.

Nebenwirkungen der ständigen Reaktionsbereitschaft sind eine eingeschränkte Auf- merksamkeit für andere Aufgaben und physisch anwesende Gesprächspartner (siehe Phubbing) sowie häufige Unterbrechungen, die die Produktivität und die Qualität der zu erledigenden Arbeiten verringern. Insbesondere eigene Kinder leiden unter dem Mangel an Aufin erksamkeit ihrer zumeist ohnehin nicht sehr lange physisch anwesenden Eltern und neigen (aus der Sicht der Eltern) dazu,„schwierig“ zu werden. In Hamburg demon- strierten im September 2018 ca. 150 Kinder gegen Eltern, die eher ihrem Smartphone als ihren Kindern Zeit und Aufmerksamkeit widmen.

Die Möglichkeit, per Smartphone (auch online) an Spielen teilzunehmen, birgt ein ho- hes Suchtpotenzial. Der Reporter der„Panorama“-Sendung der ARD vom 13. Dezem- ber 2018 stellte z. B. fest, dass er während der fünf Minuten, in denen er sich mit einem an sich harmlosen Smartphone-Spiel beschäftigte, genau so oft gelobt worden sei wie in seinem analogen Leben in einem ganzen Monat. Die systematische Stimulierung des Belohnungszentrums im Gehirn der Spieler führe auch dazu, dass die Bereitschaft ent- stehe, reales Geld in Smartphone-Spiele zu investieren. Das sei auch Kindern möglich. In Deutschland greift in solchen Fällen weder das gesetzliche Verbot, Minderjährige an Glücksspielen teilnehmen zu lassen, noch das Verbot, Minderjährigen das Schuldenma- chen 2m erlauben. Insofern werde das Jugendschutzrecht in Deutschland ausgehebelt. Die WHO erkannte im Juni 2018 an, dass "Gaming Disorder" (deutsch: Onlinespiel- sucht) eine dem unkontrollierten Glücksspiel vergleichbare Gesundheitsstörung sei. "Gaming Disorder" wurde in den Katalog ICD-11 aufgenommen. Seit Juni 2018 kann ein von "Gaming Disorder" persönlich Betroffener auf Kosten seiner Krankenkasse the- rapiert werden. In Situationen der Eltem-Kind-Interaktion kann die Nutzung von Smartphones durch Eltern ein ablenkender Faktor sein. Die angemessene Wahrnehmung und Reaktion der Signale des Kindes durch die Eltern ist entscheidend für die Entwicklung der Bindungs- sicherheit. Auch für die Sprachentwicklung sowie die Entwicklung von kognitiven und Selbstregulationsfähigkeiten ist eine responsive Eltem-Kind-Interaktion wichtig. Ra- desky et al. (2015) fanden, dass besonders die gesundheitsförderliche Wirkung der fa- miliären Verbundenheit bei regelmäßigen gemeinsamen Mahlzeiten durch die Smart- phone-Nutzung der Eltern reduziert sein könnte, da weniger verbale und nonverbale In- teraktion zwischen Eltern und Kindern stattfindet. Die elterliche Ermutigung, neue Er- fahrungen zu machen, bleibt im Fall der Ablenkung durch das Smartphone aus und der Prozess des sozialen Referenzierens, welches der Interpretation und Bewertung unbe- kannter Situationen dient, wird gestört. Die Problematik erhält zunehmend Aufmerk- samkeit, so rufen zum Beispiel Jugendämter, das Gesundheitsamt und das kommunale Integrationszentrum der Städteregion Aachen mit der Aktion„Sprich mit mir!“ dazu auf, sich das Verhältnis der Zeit am Smartphone zu der mit seinem Kind verbrachten Zeit bewusst zu machen.

Phubbing: dieses 2013 geprägte Kunstworte aus phone (Telefon) und snubbing (brüs- kieren) bezeichnet die Angewohnheit vieler Leute, sich während eines Gesprächs mit dem Handy oder Smartphone zu beschäftigen. Es wird vom Gesprächspartner meist als Missachtung oder Vernachlässigung empfunden und beeinträchtigt die Kommunikati- on. Dieses Verhalten nimmt nicht nur allgemein, sondern auch in Partnerschaften zu. In einer 2019 unter US-Ehepaaren durchgeführten Studie[60] wird von durchschnittlich 2- 4 solcher Störungen innerhalb zweier Wochen berichtet, nur ein Viertel erlebt sie kaum. Doch komme es weniger auf die Störungen an, sondern ob man sich in den alltäglichen Umgangsformen einig sei.

Smartphone Hersteller gehen seit 2018 direkt auf die Problematik der Smartphonesucht ein. Den Anfang machte Google im Mai 2018 bei der Konferenz Google I/O 2018, als eine Systemerweiterung namens "Digital Wellbeing" angekündigt wurde, die inzwi- schen auf allen Geräten mit Android 9.0 verfügbar ist und helfen soll, Suchtverhalten zu reduzieren. Ebenso hat Apple kurz darauf in iOS 12 unter dem Namen "Screentime" bzw. "Bildschirmzeit" entsprechende Features eingefuhrt.

Gemeinsam ist beiden Systemerweiterungen, dass die maximale Zeit, die innerhalb je- der individuellen App verbracht werden darf, gemessen und limitiert werden kann. Google bietet mit der Digital Wellbeing Erweiterung ab Android 9.0 zusätzlich die Op- tion, manuell oder zeitgesteuert das Smartphone Display auf Graustufen umzuschalten, was den Suchtfaktor deutlich reduzieren soll. Auf iOS ist dies auch über die Schnell- funktion möglich, muss aber manuell eingerichtet werden. Ebenso kann das Display auch auf älteren Versionen von Android auf Graustufen umgestellt werden, jedoch ist diese Möglichkeit deutlich aufwändiger.

Personenbezogene Daten sind nach der Datenschutz-Grundverordnung der Europäi- schen Union und nach Art. 8 der EU-Grundrechtecharta geschützt hn Grundgesetz für die Bundesrepublik Deutschland befasst sich zwar kein eigener Artikel mit dem Recht auf informationelle Selbstbestimmung; aber laut ständiger Rechtsprechung des Bundes- verfassungsgerichts muss dennoch von der Existenz eines solchen Grundrechts ausge- gangen werden. Insbesondere die unbemerkte und nicht beabsichtigte Weitergabe per- sonenbezogener Daten eines Smartphonebenutzers ist rechtlich bedenklich. Auch die ausdrückliche Zustimmung zur Sammlung personenbezogener Daten kann Probleme mit sich bringen, sofern der Zustimmende sich nicht über die Tragweite seiner Ent- scheidung im Klaren ist (indem z. B. wegen bislang unerkannter gesundheitlicher Risi- ken seine Krankenversicherungsbeiträge erhöht werden könnten, oder indem ihm seine Arbeitsstelle gekündigt werden könnte).

Activity Tracker ermöglichen nicht nur die Kontrolle und Speicherung von Gesund- heitsdaten, sondern auch die Weiterleitung dieser Daten an Dritte, z. B. an Ärzte. Dabei handelt es sich um eine Form der Selbstoffenbarung (im Sinne der Kommunikations- theorie Friedemann Schulz von Thuns), der sich der Versender der Daten nicht entzie- hen kann, solange er die Apparatur benutzt und auf Sendung ist (Paul Watzlawick:

Man kann nicht nicht kommunizieren.“). Problematisch ist es, dass Laien oft nicht die Bedeutung dessen verstehen, was ihr Körper„über sie aussagt“. Smartphones dienen durch ihre Kameras und Mikrofone, welche durch Hacken ferngesteuert werden, als In- strumente zum Abhören und zur visuellen Aufklärung.

Problematisch ist die Bestimmbarkeit des Aufenthaltsorts eines Smartphone-Nutzers insbesondere dann, wenn er ein berechtigtes Interesse daran hat zu verhindern, dass Dritte ihr entsprechendes Wissen gegen ihn verwenden können (Alibi-Komplex). Eine Ortsbestimmung eines Smartphones ist per GPS oder (weniger genau, dafür aber Ener- gie sparend) über das Mastennetz von Netzwerkbetreibem bzw. per WLAN möglich. Durch die Verbindung eines Smartphones mit einem GPS-System„weiß“ es, wo es sich befindet (Positionsbestimmung), aber es kann auch aus der Ferne geortet werden. Vor- aussetzung hierfür ist, dass das Smartphone eingeschaltet ist und dass der GPS- Empfanger in ihm„seinen“ Satelliten in der Erdumlaufbahn gefunden hat, was unter ungünstigen Umständen bis zu zwölf Minuten dauern kann.

Die Speicherung des Aufenthaltsorts eines Smartphones (und des Standorts seines Nut- zers, sofern sich das Gerät in der Nähe von dessen Körper befindet) sowie der Nut- zungszeiten und Kommunikationspartner durch den zuständigen Netzwerkbetreiber kann zu Problemen für die Besitzer fuhren, insbesondere dann, wenn das Gerät infolge einer Manipulation nur scheinbar ausgeschaltet ist. Sicherheit vor unerwünschten Nach- forschungen schafft nur (sofern ohne Beschädigung des Geräts möglich) die Heraus- nahme des Akkus.

„An Handys und Tablet-PCs ist nichts nachhaltig.“, urteilte 2014 Eva Wolfangel, Mit- arbeiterin bei Spektrum der Wissenschaft. Durch hochgiftige Substanzen wie Schwer- metalle (z. B. Quecksilber, Cadmium, Chrom und Blei) wird die Umwelt durch Smart- phones stark belastet. Pro Kopf werden durchschnittlich 21,6 Kilogramm Elektronik- schrott verursacht. Das liegt unter anderem daran, dass beispielsweise in Deutschland ein Smartphone durchschnittlich nur 18 Monate lang benutzt wird, bevor es durch ein neues ersetzt wird. Die Entsorgung des Elektronikschrotts erfolgt in der Regel in Ent- wicklungsländern, wo Erdboden, Luft und Menschen diesen giftigen Substanzen dann ausgesetzt sind. Daher werden entsprechende Alternativen vorgeschlagen. Das Smartphone als Idee in der Literatur tauchte schon lange vor der eigentlichen Ent- wicklung der Smartphones auf. Bereits 1949 beschrieb Emst Jünger in seinem futuristi- schen Roman Heliopolis. Rückblick auf eine Stadt den Phonophor, der Funktionen ei- nes Smartphones vorwegnahm. Die Ursprünge der Medienkunst werden mit dem Buch- druck im 15. Jahrhundert oder auch der Fotografie im 19. Jahrhundert verbunden. Der Begriff„Medienkunst“ dagegen wird erst für Kirnst der neuen Medien des 20. und 21. Jahrhunderts verwendet. Diese Entwicklung ging über Videokunst und Digitale Kunst seit dem Internet mit Hypertext. Seit der Jahrtausendwende entwickelt sich die Medien- kunst sehr schnell, auch wenn sie Anzeichen von Kurzlebigkeit zeigt. Zum Bereich der Medienkunst gehört auch die Digitalfotographie und Kunst unter Heranziehung des Smartphones. Der US-amerikanische Fotograf Eric Pickersgill (* 1986) hat in der Serie Removed Menschen in Alltagssituationen abgebildet, aus denen er die personal devices entfernen hat dürfen, und in denen die Personen dennoch ihre Körperposition einhalten. Er zeigt damit, wie sehr sich Menschen dem Gerät zuwenden, sogar, wenn Mitmen- schen körperlich nahe sind.

Aus medienästhetischer Perspektive wird in der Gegenwart untersucht, wie sich das Le- sen und das Schreiben von der Antike (beispielsweise im Umgang mit einem Papyrus) über das Blättern in einem Buch hin zur moderner Gestensteuerung des Smartphones entwickeln. Bezugnehmend zum Beispiel auf den Philosophen Vilem Flusser wird im Zusammenhang mit dieser Entwicklung auch gefragt, ob das Wischen über Touch- screens Kulturtechniken wie das Schreiben ändert und damit zusammenhängend neue Formen der Kunst und Literatur entstehen.

Der Kunstkritiker Hanno Rauterberg sieht die Bedeutung des Aufkommens des Smart- phones für die Kunst darin, dass sich ein Wunsch der Avantgarde des 20. Jahrhunderts erfüllt: neue Bildkulturen und ein Verschmelzen von Kunst und Leben. Die Avantgarde des 20. Jahrhunderts versuchte, viel klassische Merkmale der Kunst abzustreifen und Kunst und Leben aufeinanderzu zu entwickeln. Zur Mündlichkeit und Schriftlichkeit sei eine„Äuglichkeit“ hinzugekommen, denn die Kamera des Smartphones könne vieles ausdrücken, für das mit herkömmlichen Mitteln keine Worte zu finden seien. Die Foto- grafie durch das Smartphone multipliziere den Augenblick, überwände den Ort und ma- che aus dem Hier und Jetzt ein„Überall und Immer“. Sei es früher der Fall gewesen, dass Kunst wie etwa Marcel Duchamps Werke mit Alltagsdingen verwechselt wurden, habe sich dieser Umstand verkehrt und das Alltägliche nehme kunsthafte Züge an. Die Begeisterung für das Banale erinnere an die Kunstauffassungen von Joseph Beuys, Robert Rauschenberg, Andy Warhol oder JefFKoons.

Die Digitale Revolution sei auch für Museen und den Kunstmarkt ein Umbruch. Richard Prince druckte zum Beispiel Bilder aus Instagram auf Leinwand und verkaufte sie in New York. Die Bedeutung der Museen als Instanz nehme ab.

Die Veränderungen durch Smartphone-Technik und Foto-Apps bewirken im Bereich der Fotografie eine Annäherung von professionellen Fotografen und Laien, was Sehge- wohnheiten, Bearbeitung aber auch die Vermarktung von Fotografien betrifft. Aufgrund zahlreicher erschienener Anwendungen für das Smartphone (Apps) vervielfachten sich seit dem Jahr 2007 die Möglichkeiten zur Bearbeitung von Fotos.

Die Modifikationsmöglichkeiten vervielfachen sich auch in der Gegenwart mit dem Er- scheinen immer neuer Apps in hoher Geschwindigkeit; die Fotos lassen sich sofort tei- len. Durch die Bearbeitungen können auch qualitativ minderwertige Fotos interessant erscheinen und kann Alltägliches zur Kunst werden. Smartphonekameras stellen die er- ste Technologie im Bereich der Fotografie, die das Anfertigen von Bildern, das Bear- beiten und das Teilen der so entstandenen Werke vereint. Vor der Entwicklung des Smartphones vereinte nur die Polaroidkamera die Elemente, Bilder zu machen, zu drucken und sofort zu teilen, jedoch ohne die Möglichkeit einer Bearbeitung. Mit Digi- talkameras gab es aber keine Möglichkeit, Bilder zu drucken, dafür war der Umweg über einen Personal Computer nötig.

105. SHA-2

Weitere Ausführungsformen für die Erfindung: Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie.

SHA-2 (von englisch secure hash algorithm, sicherer Hash-Algorithmus) ist der Ober- begriff für die kryptologischen Hashfunktionen SHA-224, SHA-256, SHA-384, SHA- 512, SHA-512/224 und SHA-512/256, die vom US-amerikanischen National Institute of Standards and Technology (NIST) als Nachfolger von SHA-1 standardisiert wurden. Im August 2002 wurden die Versionen SHA-256, SHA-384 und SHA-512 vorgestellt. Eine vierte Variante, SHA-224, folgte im Februar 2004. Im März 2012 wurde der Stan- dard in FIPS PUB 180-4 um die Hashfunktionen SHA-512/224 und SHA-512/256 er- gänzt.

Als Reaktion auf die bekanntgewordenen Angriffe gegen SHA-1 hielt das NIST im Ok- tober 2005 einen Workshop ab, in dem der aktuelle Stand kryptologischer Hashfunktio- nen diskutiert wurde. NIST empfiehlt den Übergang von SHA-1 zu Hashfunktionen der SHA-2-Familie.

Um eine Hashfunktion mit einem andersartigen Konstruktionsprinzip zu erhalten, orga- nisierte das NIST eine Ausschreibung für SHA-3 nach Vorbild des Advanced Encrypti- on Standards (AES). Die Wahl fiel im Oktober 2012 auf den Algorithmus Keccak. SHA-2 wird aber weiterhin als sicher betrachtet und zur Benutzung empfohlen. Hiervon ausgenommen ist SHA-224, siehe Empfehlung seitens des Bundesamt für Sicherheit in der Ihformationstechnik (BSI).

Wie der Vorläufer SHA-1 ist SHA-2 eine Merkle-Damgärd-Konstruktion mit Davies- Meyer-Kompressionsfunktion. Die Nachricht (zu hashende Quelldaten) wird erst erwei- tert, wobei eine Kodierung der Nachrichtenlänge angefügt wird, und dann in Blöcke zu je sechzehn Wörtern aufgeteilt. Die Nachrichtenblöcke werden nacheinander (iterativ) verarbeitet, indem sie als Schlüssel für die Verschlüsselung eines Datenblocks von acht Wörtern dienen. Der Datenblock wird zunächst mit Konstanten initialisiert. Jeder Schlüsseltext ward mit dem Klartext verknüpft (durch Addition der Wörter modulo 2 32 {\displaystyle 2 L {32}} bzw. 2 64 {\displaystyle 2 L {64}} ), was den nächsten Klartext ergibt, der mit dem nächsten Nachrichtenblock verschlüsselt wird. Am Ende wird der Hashwert dem Datenblock entnommen.

Die Länge der Schlüssel- und Datenwörter beträgt 32 oder 64 Bit, je nach Variante. Die kleineren Versionen SHA-224 und SHA-256 verwenden 32-Bit-Wörter und teilen die Nachricht in Blöcke zu 512 Bit. Sie verschlüsseln in 64 Runden unter Verwendung von vier logischen Funktionen und je Runde einer anderen Konstanten. Bei SHA-224 wird vom Endergebnis das achte 32-Bit-Wort weggelassen.

Die übrigen vier Varianten verwenden 64-Bit- Wörter und 1024-Bit-Nachrichtenblöcke und verschlüsseln in 80 Runden, im Wesentlichen mit dem gleichen Algorithmus. Es werden dafür 80 64-Bit-Konstanten verwendet. Der initiale Datenblock besteht entspre- chend aus acht 64-Bit-Konstanten. Für SHA-384 sowie SHA-512/224 und SHA- 512/256 wird vom Ergebnis nur ein Anfangsstück von 384, 224 bzw. 256 Bit als Hash- wert genommen.

Die Konstanten werden aus den Nachkommastellen der Quadrat- oder Kubikwurzeln der ersten Primzahlen gebildet. Jede der sechs Varianten initialisiert den Datenblock mit unterschiedlichen Konstanten. Mit den 64-Bit-Varianten können theoretisch Daten bis zu einer Größe von 2128 Bit verarbeitet werden. In der Praxis sind Dateien mit mehr als 264 Bit jedoch unrealistisch.

Beispiel-Hashes

Der Hash einer leeren Zeichenkette ist:

SHA224("") =

dl4a028c2a3a2bc9476102bb288234c415a2b01f828ea62ac5b3e42f

SHA256("") =

e3b0c44298fclcl49afbf4c8996fb92427ae41e4649b934ca495991b7 852b855

SHA384("") =

38b060a751ac96384cd9327eblble36a21fdb71114be07434c0cc7bf63f6 elda274edebfe 76f65fbd51 ad2fl4898b95b Secure Hash Standard (aktuelle Version 2015)

...und später auch als RFC veröffentlicht:

RFC 4634— (Juli 2006, erste Version, veraltet): US Secure Hash Algorithms (SHA and HMAC-SHA)

RFC 6234— (Mai 2011, Nachfolger): US Secure Hash Algorithms (SHA and SHA- based HMAC and HKDF)

Siehe auch

Die Algorithmen SHA-1 und SFIA-256 sind auch die Basis für die Blockverschlüsse- lung SHACAL.

106. Kryptographische Hashfunktion

Weitere Ausführungsformen für die Erfindung:

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie.

Eine kryptologische Hashfunktion oder kryptografische Hashfunktion ist eine spezielle Form einer Hashfunktion (Streuwertfunktion), welche kollisionsresistent ist. Es ist also praktisch nicht möglich, zwei unterschiedliche Eingabewerte zu finden, die einen iden- tischen Hashwert ergeben.

Anwendungsgebiete kryptologischer bzw. kryptografi scher Hashfunktionen sind vor al- lem Integritätsprüfung von Dateien oder Nachrichten, die sichere Speicherung von Passwörtern und digitale Signaturen. Weiterhin können sie als Pseudo- Zufallszahlengeneratoren oder zur Konstruktion von Blockchiffren eingesetzt werden. Eine Hashfunktion ist eine Abbildung, die effizient eine Zeichenfolge beliebiger Länge (Eingabewert) auf eine Zeichenfolge mit fester Länge (Hashwert) abbildet. Daraus ergibt sich notwendigerweise, dass verschiedenen Eingabewerten derselbe Hashwert zugeordnet wird, die Abbildung ist also nicht injektiv. Es ist also grundsätzlich mög- lich, zwei Eingabewerte zu finden, die denselben Hashwert ergeben. Kryptologische Hashfunktionen werden in schlüssellose und schlüsselabhängige einge- teilt: Eine schlüssellose Hashfunktion hat nur einen Eingabewert, während eine schlüs- selabhängige Hashfunktion einen geheimen Schlüssel als zweiten Eingabewert benötigt. Die schlüssellosen Hashfunktionen werden ferner unterteilt in Einweg-Hashfunktionen (englisch One-Way Hash Function, kurz OWHF) und kollisionsresistente Hashfunktio- nen (englisch Collision Resistant Hash Function, kurz CRHF).

Eine Einweg-Hashfunktion erfüllt folgende Bedingungen:

Einwegfunktion (englisch: preimage resistance): Es ist praktisch unmöglich, zu einem gegebenen Ausgabewert y (\displaystyle y} einen Eingabewert x (\displaystyle x} zu finden, den die Hashfunktion auf y {\displaystyle y} abbildet: h ( x ) = y {\displaystyle h(x)=y} ·

Schwache Kollisionsresistenz (englisch: 2nd-preimage resistance): Es ist praktisch un- möglich, für einen gegebenen Wert x {\displaystyle x} einen davon verschiedenen Wert x ' {\displaystyle x’} zu finden, der denselben Hashweit ergibt: h ( x ) = h ( x’) , x ^ x ' (\displaystyle h(x)=h(x')\;,\;x\neq x'} .

Für eine kollisionsresistente Hashfunktion gilt zusätzlich:

Starke Kollisionsresistenz (englisch: collision resistance): Es ist praktisch unmöglich, zwei verschiedene Eingabewerte x {\displaystyle x} und x ' {\displaystyle x’} zu finden, die denselben Hashwert ergeben. Der Unterschied zur schwachen Kollisionsresistenz besteht darin, dass hier beide Eingabewerte x {\displaystyle x} und x ' {\displaystyle x’} frei gewählt werden dürfen.

Man kann zusätzlich eine Resistenz gegen Beinahe-Kollision fordern (englisch: near- collision resistance). Hierbei soll es praktisch unmöglich sein, zwei verschiedene Ein- gabewerte x (\displaystyle x} und x ' {\displaystyle x’} zu finden, deren Hashwerte h ( x ) (\displaystyle h(x)} und h ( x ' ) {\displaystyle h(x')} sich nur in wenigen Bits unter- scheiden.

Zu den schlüsselabhängigen Hashfunktionen zählen Message Authentication Codes (MAC). Zu diesen zählen Konstrukte wie HMAC, CBC-MAC oder UMAC. Die Merk- le-Damgärd-Konstruktion erzeugt den Hashwert aus den Nachrichtenblöcken durch wiederholte Anwendung der Kompressionsfunktion. Die meisten Hashfunktionen, die vor 2010 entwickelt wurden, folgen der Merkle-Damgärd-Konstruktion. In Folge des SHA-3 -Wettbewerbs wurde die Merkle-Damgärd-Konstruktion durch verschiedene Konstruktionsmethoden ersetzt oder erweitert.

Merkle-Damgärd-Verfahren: In der Merkle-Damgärd-Konstruktion wird eine Kompres- sionsfunktion iteriert. Eine Kompressionsfunktion nimmt als Eingabe zwei Bitfolgen der Längen n {\displaystyle n} und m {\displaystyle m} und gibt eine Bitfolge der Län- ge n {\displaystyle n} aus. Zusätzlich ist sie eine Einwegfunktion, es sollte also schwer sein, zu einer gegebenen Ausgabe passende Eingabewerte zu finden. Oft wird eine Blockchiffre als Kompressionsfunktion benutzt, die Eingaben werden dann als Nach- richt und Schlüssel benutzt.

Bei der Merkle-Damgärd-Konstruktion wird die eingegebene Nachricht M zuerst in Blöcke fester Länge geteilt und mit zusätzlichen Bits aufgefullt, so dass die Eingabe- länge ein ganzzahliges Vielfaches der Blocklänge beträgt. Die Kompressionsfunktion hat als Input einen Nachrichtenblock und den Output der vorherigen Nachrichtenblök- ke.

Der Hashwert der gesamten Nachricht ist der Hashwert des letzten Blocks: H ( 0 ) = I V

Die Kompressionsfunktion kann auf verschiedene Arten konstruiert werden.

Kompressionsfunktionen, die auf Bitoperationen basieren

Die Kompressionsfunktion kann speziell für eine Hashfunktion entwickelt werden und besteht Hann aus einfachen Operationen direkt auf den Nachrichtenbits. Zu dieser Klas- se gehören z. B. die MD4-Familie einschließlich SHA und RIPEMD.

Kompressionsfunktionen, die auf einer Blockchiffre basieren Dabei unterscheidet man Hashfunktionen, deren Hashwert dieselbe Länge hat wie die Blocklänge und jene, deren Hashwert die doppelte Blocklänge hat. Hash-Länge gleich Blocklänge:

Sei E K {\displaystyle E_{K} } die Verschlüsselung mit einer Blockchiffre unter dem Schlüssel K {\displaystyle K} , M ( i ) {\displaystyle M(i)} die Nachrichtenblöcke und H ( i ) {\displaystyle H(i)} die Ausgaben der Kompressionsfunktion. Drei verbreitete Konstruktionen sind die folgenden:

-Matyas-Meyer-Oseas-Variante: H ( i ) = E H ( i— l ) ( M ( i ) ) ® M ( i ) {\displaystyle H(i)=E_{H(i-l)}(M(i))\oplus M(i)}

-Davies-Meyer-Variante: H(i) = EM(i)(H(i— 1)) ® H ( i - 1 ) {\displaystyle H(i)=E_{M(i) } (H(i- 1 ))\oplus H(i -1 ) }

-Miyaguchi-Preneel-Variante: H(i) = EH(i-l)(M(i)) ©M(i) ®H(i-l) {\displaystyle H(i)=E_{H(i-l)}(M(i))\oplus M(i)\oplus H(i-l)}

Hash-Länge mit doppelter Blocklänge: Dazu zählen MDC-2 und MDC-4. Sie bestehen im Wesentlichen aus der zwei- bzw. vierfachen Anwendung der Matyas-Meyer-Oseas- Konstruktion.

Um die Sicherheit der Kompressionsfunktion auf ein schwieriges Problem reduzieren zu können, wird deren Operation in entsprechenden algebraischen Strukturen definiert. Der Preis für die beweisbare Sicherheit ist ein Verlust an Geschwindigkeit. MASH (Modular Arithmetic Secure Hash) verwendet einen RSA-ähnlichen Modulus n = p q {\displaystyle n=pq} , mit p (\displaystyle p} und q {\displaystyle q} Primzahlen.

Die Kompressionsfunktion ist im Kern: H(i) = ((M(i) ®H(i-l)vA)2 mod n ) ® H ( i - 1 ) {\displaystyle H(i)=((M(i)\oplus H(i-l)\lor A) L {2} {\bmod {\ } }n)\oplus H(i-1)}

A: Konstante, ® {\displaystyle \oplus } : exklusives Oder, V (\displaystyle \lor } : in- klusives Oder

Sponge-Verfahren: Sponge-Konstruktionen haben grundsätzlich andere Eigenschaften als Merkle-Damgärd-Konstruktionen. Der bekannteste Vertreter dieser Klasse ist SHA- 3. Angriffe gegen Hashfunktionen können allgemeiner Art sein, und nur von der Bit- Länge des Hashwerts abhängen und den Hash-Algorithmus als Black-Box behandeln. Sie können sich andererseits gegen die Kompressionsfunktion richten. Bei Hashfunk- tionen, die auf einem Block-Chiffre basieren, kann ein Angriff gegen die zugrundelie- gende Block-Chiffrierung erfolgen. Überdies sind Angriffe auf die Implementierung des Hash-Algorithmus möglich.

Black-Box-Angriffe sind Angriffe auf Hashfunktionen, bei denen über die eigentliche Funktionsweise der Hashfiinktion nichts bekannt ist. Lediglich die Länge des

Hashwerts n {\displaystyle n} wird als bekannt vorausgesetzt und man nimmt an, dass die Hashwerte gleichverteilt sind. Raten (englisch: 2nd preimage): Der Angreifer wählt zufällig eine Nachricht und vergleicht deren Hashwert mit dem einer gegebenen Nachricht. Die Erfolgsrate bei diesem Vorgehen liegt bei 2 - n {\displaystyle 2 L {- h }} für einen n {\displaystyle n} Bit langen Hashwert.

Kollisionsangriff: Der Angreifer erzeugt viele Variationen einer echten Nachricht und viele Variationen einer gefälschten Nachricht. Anschließend vergleicht er die beiden Mengen und sucht nach zwei Nachrichten, v e c h t {\displaystyle v_{\mathrm {echt} }} und v f a 1 s c h {\displaystyle v_{\mathrm {falsch} }} , die den gleichen Hashwert haben. Eine Kollision ist nach 2 n 2 {\displaystyle 2 L {\ffac {n} {2} } } Versuchen zu er- warten.

Angriffe auf die Kompressionsfunktion

Meet-in-the-Middle: Der Angreifer erzeugt Variationen der ersten Hälfte einer ge- fälschten Nachricht und Variationen der zweiten Hälfte. Er berechnet die Hashwerte vorwärts beim Startwert IV beginnend und rückwärts vom Hash-Resultat aus und ver- sucht eine Kollision am Angriffspunkt zu finden. Das heißt, er muss die Kompressions- funktion effizient invertieren können: gegeben H ( i + 1 ) {\displaystyle H(i+1)} ein Paar ( H ( i ) , M ( i + l ) ) {\displaystyle (H(i),M(i+l))} finden, so dass gilt f ( H ( i ) ,M ( i + 1 ) ) = H ( i + 1 ) {\displaystyle f(H(i),M(i+l))=H(i+l)} . Correcting Block Attack: Der Angreifer ersetzt alle Blöcke einer Nachricht bis auf ei- nen - etwa den ersten. Anschließend legt er diese Variable so fest, dass sie im Laufe der Verkettung den gewünschten Gesamt-Hashwert liefert.

Fixed Point Attack: Der Angreifer sucht nach einem H ( i - 1 ) {\displaystyle H(i-1)} und M ( i ) {\displaystyle M(i)} , so dass f ( M ( i ) , H ( i— l ) ) = H ( i— 1 ) {\displaystyle f(M(i),H(i-l))=H(i-l)} . In diesem Fall kann er an diesem Punkt Nach- richtenblöcke einfügen, ohne den Hashwert zu ändern.

Differenzielle Kryptanalyse: Differenzielle Kryptanalyse ist ein Angriff auf Block- chiffriersysteme, die auf Hashfunktionen übertragen werden kann. Hierbei werden Ein- gabedifferenzen und die korrespondierenden Ausgabedifferenzen untersucht. Eine Dif- ferenz von Null entspricht dann einer Kollision.

Boomerang Attack: Der Boomerang-Angriff ist eine Erweiterung der differenziellen Kryptanalyse. Er verbindet zwei unabhängige Differentialpfade zu einem Angriff.

Rebound Attack: Die innere Struktur einer Hashfunktion wird als dreiteilig betrachtet, mit E=E(bw) E(in)-E(iw). Die Inboundphase ist ein Meet-in-the-Middle-Angriff, dem vorwärts wie rückwärts eine differenzielle Kryptanalyse folgt. [3]

Herding: Hierbei bildet der Angreifer aus zahlreichen Zwischenwerten eine Struktur (sog. Diamond Structure). Von jedem der Zwischenwerte ausgehend kann eine Nach- richt erstellt werden, die denselben Hashwert H ergibt. Bei einer gegebenen Nachricht P (preimage) sucht der Angreifer einen einzelnen Block, der an P angehängt einen der ge- speicherten Zwischenwerte in der Struktur ergibt. Dann erzeugt der Angreifer eine Fol- ge von Nachrichtenblöcken, die diesen Zwischenwert mit H verbinden.

Angriffe auf die Blockchiffrierung: Schwachstellen eines Blockchiffrierverfahrens, die, solange das Verfahren zur Verschlüsselung verwendet wird, eigentlich irrelevant sind, können bedeutende Auswirkungen haben, wenn es zur Konstruktion eines Hash- Verfahrens herangezogen wird. Diese wären z. B. schwache Schlüssel oder eine Kom- plementäreigenschaft.

Übersicht von Hashfunktionen:

Snefru: wurde 1990 von Ralph Merkle entworfen. Der Kem der Hashfunktion ist ähn- lich dem Blockchiffriersystem Khafre (Merkle). Snefru gilt als unsicher.

N-Hash: wurde 1990 bei Nippon Telephone and Telegraph entwickelt. Der Algorithmus ähnelt dem Blockchiffriersystem FEAL (Nippon T&T). N-Hash gilt als unsicher.

FFT-Hash: ist eine Hashfunktion auf der Basis der Fast-Fourier-Transformation. Sie wurde von Schnorr 1991 erstmals vorgestellt, aber bald geknackt. Später folgte eine zweite Version. Sie gilt als unsicher.

MD4: wurde 1990 von Ronald Rivest entwickelt. [8] Sie erzeugt nach drei Runden ei- nen 128 Bit langen Hashwert. Zu Beginn wird die Länge der Nachricht auf ein ganzzah- liges Vielfaches von 512 Bit gebracht. Dazu wird sie mit einer„1“ und entsprechend vielen„0“ aufgefüllt, so dass M 448 ( mod 512 ) {\displaystyle M\equiv 448{\pmod {512} } } ist. Ihr wird die Länge der ursprünglichen Nachricht in 64 -Bit-Darstellung an- gehängt. Als Nächstes wird der Puffer initialisiert. Die Hauptschleife besteht aus drei Runden mit je 16 Schritten. Jede Runde erhält als Eingabe einen 512 Bit langen Nach- richtenblock und den 128 Bit langen Pufferinhalt. Jede Runde benutzt 16-mal eine nichtlineare Rundenfunktion. Der ausgegebene Hashwert ist die Konkatenation (Ver- kettung) der letzten 32-Bit-Worte im Puffer. MD4 gilt als imsicher.

MD5: 1991 veröffentlichte Rivest ein verbessertes Hash-Verfahren, noch bevor eine ernsthafte Schwäche von MD4 aufgedeckt wurde. Die wesentlichen Veränderungen sind: MD5 hat eine vierte Runde. Die vierte Runde hat eine neue Rundenfunktion; die der zweiten Runde wurde durch eine neue Funktion ersetzt. Die additiven Konstanten wurden neu definiert. Der erste partielle Angriff auf MD5 von 1993 fand Pseudokolli- sionen, d. h. es können zu einem Nachrichtenblock zwei sich in nur wenigen Bits von- einander unterscheidende Verkettungsvariablen VI und V2 gefunden werden, die den- selben Output ergeben. [10] Der Angriff hatte allerdings keine schwerwiegenden Kon- sequenzen. Ein neuer effizienter Angriff erfolgte 2005. Hierbei suchten die Autoren nach einem Nachrichtenpaar mit je zwei Blöcken, die nach Verarbeitung des zweiten Blocks eine Kollision erzeugen. MD5 gilt als unsicher.

SHA: Das NIST schlug 1993 den Secure Hash Algorithm (SHA) vor. Zwei Jahre später wurde er durch SHA-1 ersetzt. SHA-1 unterscheidet sich von seinem Vorgänger nur durch eine zusätzliche 1-Bit-Rotation.Die Nachricht wird wie bei MD4 aufgefüillt. Der Puffer wird mit fünf Konstanten initialisiert. Die Hauptschleife besteht aus vier Runden mit je 20 Schritten.1998 wurde eine differentielle Analyse gegen SHA-0 und SHA-1 durchgeführt.

2002 wurden vom NIST drei weitere Varianten des Algorithmus veröffentlicht, die grö- ßere Hashwerte erzeugen. Es handelt sich dabei um SHA-256, SHA-384 und SHA-512, wobei die angefugte Zahl jeweils die Länge des Hashwerts in Bit angibt. 2004 wurde ein verbesserter Angriff auf SHA-0 beschrieben. Hier fanden die Autoren Beinahe-Kollisionen, sowie Kollisionen für eine auf 65 Runden reduzierte Version von SHA. Ein Jahr später berichten dieselben Autoren von einem Angriff auf die volle Run- denzahl von SHA-0 mit einer Komplexität von 251. Im selben Jahr gelang ein verbes- serter Angriff gegen SHA-0 mit einer Komplexität von 239 Hash-Operationen und ge- gen SHA-1 mit einer Komplexität von 269. Im Februar 2017 wurde die erste Kollision für SHA-1 veröffentlicht.

RIPE-MD: RJPE-MD wurde 1992 im Rahmen des Projekts RACE Integrity Primitives Evaluation (RIPE) der Europäischen Union entwickelt. 1996 wurde die ursprüngliche Hashwert-Länge von 128 auf 160 Bits erweitert. [18] Außerdem wurden die Varianten RIPEMD-256 und RIPEMD-320 eingeführt.Die Nachricht wird wie bei MD4 aufge- füllt. Der Puffer wird mit fünf Konstanten initialisiert. Die Hauptschleife besteht aus fünf Runden mit je 16 Schritten. Der Algorithmus läuft in zwei Ausführungen parallel. Nach jedem Block werden die beiden Ausgabewerte beider Linien zu den Verkettungs- variablen addiert.Im ursprünglichen RIPEMD konnten mit einer Komplexität von 2 16{\displaystyle 2 L {16} } Kollisionen gefunden werden, so dass es nicht verwendet werden sollte.

HAVAL: wurde 1992 vorgestellt und gehört ebenfalls zur MD4-Familie. Die Nachrich- ten werden in 1024 Bit langen Blöcken verarbeitet. Der Hashwert kann 128, 160, 192, 224 oder 256 Bit lang sein. Auch die Rundenzahl kann von drei bis fünf variieren. Jede Runde besteht aus 16 Schritten. [20]2003 konnten für HAVAL mit drei Runden Kolli- sionen gefunden werden. Der Angriff gelingt gegen alle möglichen Ausgabelängen. Die Komplexität entspricht dabei 229 Rechenschritten der Kompressionsfunktion. HAVAL sollte deswegen nicht für Applikationen verwendet werden, die Kollisionsresistenz er- fordern.

Tiger: wurde 1996 von Anderson und Biham entwickelt. Nachrichtenpadding ist wie bei MD4, d. h. der Nachricht wird eine„1“ plus eine Folge von„0“, sowie die Nach- richtenlänge als ein 63-Bit-Wort angehängt. Das Resultat wird in 512 Bit lange Blöcke geteilt. Der Hashwert enthält 192 Bits. Aus Gründen der Kompatibilität sind TIGER/128 oder TIGER/160 definiert, die die ersten 128 bzw. 160 Bits von TIGER/192 verwenden.

PANAMA: ist von Daemen und Clapp und stammt von 1998. Es verarbeitet Nachrich- tenblöcke mit 256 Bit Länge und gibt einen Hashwert mit 256 Bit aus. Der Puffer ist ein lineares Schieberegister mit 32 Zuständen mit je acht Worten. Einer der Autoren konnte Kollisionen in nur 26 Auswertungen der Update-Funktion er- zeugen, so dass Panama nicht als kollisionsresistent gelten kann.

Whirlpool: wurde von Rijmen und Barreto entworfen. Es beruht auf dem Miyaguchi- Preneel-Schema.Die Nachricht wird wie bei MD4 aufgefüllt. Die aufgefüllte Nachricht wird in 512 Bit lange Blöcke geteilt. Der Hashwert ist 512 Bit lang. Whirlpool verwen- det als Funktion eine AES-Variante in 10 Runden. SMASH: wurde 2005 von Knudsen entwickelt. Nach dem Nachrichtenpadding zu Be- ginn wird die Nachricht wahlweise in 256 bzw. 512 Bit langen Blöcken verarbeitet und liefert einen 256 bzw. 512 Bit langen Hashwert. Die Hauptrunde besteht aus mehreren Runden, die H-Runden und L-Runden genannt werden. Drei verschiedene H-Runden sind definiert. Jede H-Runde enthält eine eigene S-Box (Substitutionstabelle), die an die des Blockchiffrierverfahrens Serpent angelehnt ist. In der L-Runde werden Links- oder Rechtsverschiebungen durchgeführt. SMASH wurde bald erfolgreich angegriffen und gilt als unsicher.

FORK-256: wurde beim Cryptographic Hash Workshop von Hong et al. vorgestellt. Es verarbeitet 512 Bit lange Nachrichtenblöcke, unterteilt in 16 Worte und liefert einen 256 Bit langen Hashwert. Die Hauptschleife besteht aus vier Verzweigungen und acht Schritten je Zweig. FORK-256 gilt als unsicher.

SHA-3 (Keccak): Das Design-Prinzip von SHA-3 unterscheidet sich von den Hash- Funktionen der MD-Gruppe einschließlich SHA-2. Es ist eine sog. sponge construction (Schwamm-Konstruktion). Die Sponge-Construction ist eine iterative Funktion, bei der der State (Anzahl Bits im internen Zustand) größer ist als das Output (Ausgabebits). Damit sollen generische Angriffe wie etwa eine Kollision mit Komplexität unter 2 n / 2 (\displaystyle 2 L {h/2} } abgewehrt werden.

BLAKE: 2008 von Jean-Philippe Aumasson, Luca Henzen, Willi Meier und Raphael C.-W. Phan entwickelt; war einer der Finalisten im SHA-3 -Auswahlverfahren.

107. Hashfunktion

Weitere Ausführungsfonnen für die Erfindung:

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie. Eine Hashfunktion, die Namen auf Ganzzahlen abbildet. Für die Namen„John Smith“ und„Sandra Dee“ gibt es eine Kollision. Eine Hashfunktion (auch Streuwertfunktion) ist eine Abbildung, die eine große Eingabemenge (die Schlüssel) auf eine kleinere Zielmenge (die Hashwerte) abbildet. Eine Hashfunktion ist daher im Allgemeinen nicht injektiv. Die Eingabemenge kann Elemente unterschiedlicher Längen enthalten, die Elemente der Zielmenge haben dagegen meist eine feste Länge.

Der Name„Hashfunktion“ stammt vom englischen Verb to hash, das sich als„zerhak- ken“ übersetzen lässt. Der deutsche Name lautet Streuwertfunktion. Beide Namen deu- ten darauf hin, dass diese Funktionen normalerweise darauf angelegt sind, die Daten zu „verstreuen“ und zu„zerhacken“ (siehe auch Zerhacker in der Funktechnik). Speziell in der Informatik verwendet man auch den Begriff Hash -Algorithmus (englisch hash algo- rithm), da Hashfunktionen oftmals in Form eines Algorithmus statt einer mathemati- schen Funktion spezifiziert werden.

Die Hash- oder Streuwerte sind meist skalare Werte aus einer begrenzten Teilmenge der natürlichen Zahlen. Eine„gute“ Hashfunktion liefert dabei für die (erwarteten) Einga- bedaten Werte, sodass zwei unterschiedliche Eingaben auch zu unterschiedlichen Aus- gabewerten fuhren. Ein Hashwert wird deshalb auch als englisch Fingerprint bezeich- net, da er eine nahezu eindeutige Kennzeichnung einer größeren Datenmenge darstellt, so wie ein Fingerabdruck einen Menschen nahezu eindeutig identifiziert.

Eine sogenannte Kollision tritt dann auf, wenn unterschiedlichen Eingabedaten derselbe Hashwert zugeordnet wird. Da die Menge der möglichen Hashwerte meist kleiner ist als die der möglichen Eingaben, sind solche Kollisionen dann prinzipiell unvermeidlich, weshalb es Verfahren zur Kollisionserkennung geben muss. Eine gute Hashfunktion zeichnet sich dadurch aus, dass sie für die Eingaben, für die sie entworfen wurde, mög- lichst wenige Kollisionen erzeugt.

In der Datenspeicherung kann ein Hashwert verwendet werden, um die Speicherstelle der angefragten Daten zu berechnen (z. B. Hashtabelle). Bei Prüfsummen verwendet man Hashwerte, um Übertragungsfehler zu erkennen. In der Kryptologie werden spezi- elle kryptologische Hashfunktionen verwendet, bei denen zusätzlich gefordert wird, dass es praktisch unmöglich ist, Kollisionen absichtlich zu finden.

Für bekannte und beschränkte Eingabemengen können auch perfekte (im Sinne von kollisionsfreie) Hashfunktionen gefunden werden.

Hashfunktionen werden typischerweise angewendet, um:

-einem komplexen Objekt einen Speicherort zuzuweisenBeispiel:„Max Mustermann“ wird im Ordner„m“ abgelegt - dem ersten Buchstaben des Nachnamens.

-eine (kurze) Prüfsumme zu dem Objekt zu berechnenBeispiel: Prüfsumme einer ISBN, Zyklische Redundanzprüfimg zur Erkennung von Übertragungsfehlem von Dateien -einen Inhalt nahezu eindeutig (aber immer noch„kurz“) zu identifizieren, ohne etwas über den Inhalt zu verratenBeispiel: Anwendungen in der Kryptographie.

Je nach Anwendung hat man unterschiedliche Anforderungen an die Funktion. Grup- piert man beispielsweise eine Adresskartei nach dem ersten Buchstaben des Nachna- mens, spart man sich offensichtlich bei der Suche viel Zeit - man braucht nur einen von 26 Teilen zu durchsuchen. Diese„Hashfunktion“ ist für den Menschen sehr praktisch (da sie sehr einfach zu„berechnen“ ist), jedoch würde ein Computerprogramm andere Verfahren verwenden, um ein Adressbuch zu organisieren. Für das Programm ist es nämlich wichtig, möglichst wenige Kollisionen zu haben; es gibt aber offenbar viele Namen, die mit demselben Anfangsbuchstaben beginnen, und sie kommen ungleichmä- ßig oft vor. Legt man also beispielsweise Personalakten nach diesem Prinzip ab, so hat man oftmals viele Akten im Ordner mit dem Buchstaben„S“, während der Ordner„Q“ leer bleibt.

Die einstellige Quersumme ist eine einfache Hashfunktion. Sie ordnet einer beliebigen Zahl eine einstellige Zahl zu, so wird beispielsweise 25 {\displaystyle 25} auf 2 + 5 = 7 {\displaystyle 2+5=7} abgebildet. Als Prüfsumme ist diese Quersumme aber nicht gut geeignet, da die Vertauschung von Ziffern - ein typischer Fall beim Abtippen von lan- gen Zahlen - nicht erkannt wird. So hat auch die Zahl 52 (\displaystyle 52} dieselbe Quersumme 5 + 2 = 7 {\displaystyle 5+2=7} . Prüfsummen wie bei der ISBN eines Bu- ches oder die CRC-32-Prüfsumme einer Datei (z. B. beim Prüfen einer aus dem Internet heruntergeladenen Datei auf Übertragungsfehler) eignen sich besser, derartige Fehler zu erkennen.

Bei der Identifikation von Inhalten mit sogenannten kryptologischen Hashfunktionen ist es nicht nur wichtig, dass sich der Hashwert bei jeder kleinen Modifikation scheinbar zufällig (d. h. nicht etwa mit nur wenigen Bits) ändert (hierfür würde eine normale Prüfsumme reichen) und dass es nicht einfach ist, einen zweiten Inhalt mit demselben Hashwert zu erzeugen (um einen Komplettaustausch des Inhaltes zu vermeiden). Eben- so wichtig ist es, dass der Inhalt nicht aus dem Hashwert rekonstruiert werden kann. Hat man zwei Dokumente ausgetauscht und möchte beispielsweise am Telefon die erfolg- reiche Übertragung überprüfen, so reicht es, am Telefon die Korrektheit des Hash wertes zu überprüfen. Wird das Gespräch abgehört, so wird dabei nichts über den Inhalt der Nachricht verraten, selbst falls Teile des Inhalts bereits bekannt sein sollten.

Eine Abbildung h : K ® S {\displaystyle bAcolon K\rightarrow S} heißt Hashfunktion, wenn | K | > | S | (\displaystyle |K|\geq \ |S|} gilt. Insbesondere liefert h {\displaystyle h} eine Hashtabelle der Größe | S | {\displaystyle |S|} . Die Menge K (\displaystyle K} repräsentiert die Daten, die gehasht werden sollen, und wird auch die Menge der Schlüssel genannt; die Menge S {\displaystyle S} ist die Menge der möglichen Hash- werte. Typischerweise wird die Menge der Hashwerte als Anfangsstück der natürlichen Zahlen gewählt: S c { 0 , ... , m - l } {\displaystyle S\subseteq \left\{0,\dotsc ,m- l\right\} } . Diese Menge heißt dann auch Adressraum. Typischerweise wird in der Pra- xis immer nur eine kleine Teilmenge der Schlüssel K ' K {\displaystyle K'{}\subseteq {}K} mit h (\displaystyle h} abgebildet. Die Menge S ' := { h ( k ) | k 6 K ' } {\displaystyle S':=\{h(k)|k\in K'\} } sind dann die tatsächlich genutzten Hashwerte. Das Verhältnis ß = | S Ί I S | {\displaystyle \beta ={\frac {\left| S'\ri ght| } {\left|S\right|} }} liefert den Belegungsfaktor. Der Fall wird als Kollision bezeichnet. Eine injektive Hashfiinktion heißt perfekt, u. a. weil sie keine Kollisionen erzeugt.

Kriterien für eine gute Hashfunktion:

-Geringe Wahrscheinlichkeit von Kollisionen der Hashwerte für den Eingabewertebe- reich, also möglichst eine Gleichverteilung der Hashwerte auf die erwarteten Eingabe- werte.

-Der Speicherbedarf des Hashwertes soll deutlich kleiner sein als jener des Schlüssels (Eingabewert).

-Chaos oder Lawineneffekt - Die Hashfunktion soll eine gute Diffusion besitzen; ähnli- che Quellelemente (Eingabewerte) sollen zu völlig verschiedenen Hashwerten führen. Im Idealfall verändert das Umkippen eines Bits in der Eingabe durchschnittlich die Hälfte aller Bits im resultierenden Hashwert.

-Konfusion - Vom Hashwert sollen keine Rückschlüsse auf den Eingabewert gemacht werden können.

-Unumkehrbarkeit - Es soll kein praktisches Verfahren möglich sein, das aus einem Hashwert den Eingabewert bestimmt.

-Surjektivität - Kein Ergebniswert (Hashwert) soll unmöglich sein, jedes Ergebnis (je- der Hashwert im definierten Wertebereich) soll tatsächlich Vorkommen können.

-Effizienz - Die Funktion muss schnell berechenbar sein, ohne großen Speicherver- brauch auskommen und sollte die Quelldaten (Eingabewerte) möglichst nur einmal le- sen müssen.

-ordnungserhaltend - Falls die Hashfunktion einen sortierten Zugriff in einer Hashtabel- le erlauben soll.

-Je nach Anwendung spielen diese Kriterien eine unterschiedliche Rolle. So sind Chaos und Ordnungserhaltung offenbar im Widerspruch zueinander. In der Kryptographie ist letztere tabu, für bestimmte Datenbankanwendungen ist sie jedoch erwünscht. Die Ei- genschaften Konfusion und Unumkehrbarkeit sind bei kryptologischen Hashfunktionen essenziell, für die Nutzung von Hashfunktionen in Hashtabellen hingegen unbedeutend. Hashfunktionen haben verschiedene Anwendungsfelder. Dabei lassen sich drei große Gebiete unterteilen: 1. Datenbanken, 2. Prüfsummen, 3. Kryptologie

Datenbankmanagementsysteme verwenden Hashfunktionen, um Daten in großen Da- tenbeständen mittels Hashtabellen zu suchen. Darüber wird ein Datenbankindex reali- siert. Mittels Hashfunktionen kann zudem die Fragmentierung von Datensätzen reali- siert werden. Dabei wird die Hashfunktion auf den Primärschlüssel des betreffenden Objektes angewandt. Das Ergebnis referenziert dann seinen Speicherort. Auch für ver- gleichsweise kleine Datenmengen werden Hashfunktionen benutzt, beispielsweise in Kompressionsalgorithmen wie LZW.

Prüfsummen sind ein einfaches Mittel, um die Plausibilität zur Erkennung von Verän- derungen an übertragenen Daten zu erhöhen. Nur die Teilmenge der Datenvarianten, die bei Berechnung der Prüfsumme das gleiche Ergebnis wie das der Original -Daten er- zeugen, kann noch als Verfälschung unerkannt bleiben. Mit mehreren verschiedenen passend erzeugten Prüfsummen kann die Wahrscheinlichkeit einer Kollision stark redu- ziert werden. Ein Fehler ist immer feststellbar, wenn die berechnete Prüfsumme der empfangenen Daten sich von der übertragenen Prüfsumme, also der der Originaldaten, unterscheidet. Falls ein Fehler festgestellt wird, kann die Verfälschung auch ausschließ- lich in der Prüfsumme enthalten sein. Die Eignung verschiedener Hashfunktionen zur Prüfsummenberechnung hängt von deren Kollisionswahrscheinlichkeit ab.

Wenn die Prüfsumme vor gezielten Manipulationen der Daten schützen soll, wird eine kryptologische Hashfunktion verwendet, da hier nur mit sehr hohem Rechenaufwand eine Kollision gefunden werden kann. Hashwerte haben unter anderem bei P2P- Anwendungen aus verschiedenen Gründen eine wichtige Aufgabe. Die Hashwerte wer- den hier sowohl zum Suchen und Identifizieren von Dateien als auch zum Erkennen und Prüfen von übertragenen Dateifragmenten verwendet. So lassen sich große Dateien zuverlässig in kleinen Segmenten austauschen. Zur Anwendung in P2P-Netzen kommen vor allem gestufte Hashfunktionen, bei denen für kleinere Teile einer Datei der Hashwert und dann aus diesen Werten ein Gesamtwert berechnet wird. Bei den Netzwerken Gnutella G2, Shareaza und Direct Connect sind dies zum Beispiel Tiger-Tree-Hash-Funktionen.

Das Auffmden von Dateien anhand des Hashwertes ihres Inhaltes ist zumindest in den USA als Softwarepatent geschützt. Der Inhaber verfolgt Programme und Firmen, die auf Basis dieses Systems die Suche von Dateien ermöglichen, einschließlich Firmen, die im Auftrag von RIAA oder MPA Anbieter von unlizenzierten Inhalten ermitteln wollen.

Bei der Programmierung von Internet- Anwendungen werden Hashfunktionen zum Er- zeugen von Session-IDs genutzt, indem unter Verwendung von wechselnden Zu- standswerten (wie Zeit, IP-Adresse) ein Hashwert berechnet wird. Kryptologische Hashfunktionen besitzen spezielle Eigenschaften, in der Praxis sind es kollisionsresi- stente Einwegfunktionen. Sie werden verwendet, um Nachrichten zu signieren bzw. die Integrität von Daten sicherzustellen. Zum Hashen von Passwörtern, mit dem Ziel, sie sicher zu speichern oder daraus Schlüssel zu gewinnen, werden spezielle Hashfunktio- nen verwendet (z. B. aus der Klasse der "sicheren Hashalgorithmen"). Diese sind im Idealfall besonders aufwändig zu berechnen, um Brute-Force-Angriffe zu erschweren. Weiterhin müssen sie insbesondere den Eigenschaften der Konfusion und Unumkehr- barkeit genügen, damit das Klartextpasswort bzw. eine Menge von Kandidaten nicht ohne weiteres aus dem Schlüsselwert generierbar ist.

Hash-Algorithmen

Bekannte

-Brent-Hashing

-Divisions-Rest-Methode

-Doppel-Hashing

-Kuckucks-Hashing

-Multiplikative Methode

-Mittquadratmethode

-Zerlegungsmethode

-Ziffemanalyse Gitterbasierte

-Ajtai

-Micciancio

-Peikert-Rosen

-Schnelle Fourier-Transformation (FFT Hashfunktion)

-LASH

Prüfsummen

-Fletcher’s Checksum

-Adler-32

-CRC (Zyklische Redundanzprüfung)

-Parität

-Quersumme

Kryptologische Hashfunktionen

-MD2, MD4, MD5

-Secure Hash Algorithm (SHA)

-RIPEMD-160

-Tiger

-HA VAL

Whirlpool

Nicht-kryptologische Hashfunktionen

xxHash

MurmurHash 3 a

SBox

Lookup3

CityHash64

FNV

SipHash/HighwayHash

Passwort-Hashfunktionen

-LM-Hash

-PBKDF2

-Bcrypt -Scrypt

-Argon2

108. Kryptographie

Weitere Ausführungsformen für die Erfindung:

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie.

Kryptographie bzw. Kryptografie (altgriechisch kruptόV kryptos, deutsch ,verborgen‘, , geheim und grάfein gräphein, deutsch ,schreiben‘)ist ursprünglich die Wissenschaft der Verschlüsselung von Informationen. Heute befasst sie sich auch allgemein mit dem Thema Informationssicherheit, also der Konzeption, Definition und Konstruktion von Informationssystemen, die widerstandsfähig gegen Manipulation und unbefugtes Lesen sind.

Der Begriff Kryptographie bedeutet Geheimschrift. Die Kryptographie befasste sich hi- storisch mit der Erzeugung, Betrachtung und Beschreibung von Verfahren, um„geheim zu schreiben“, also mit Verschlüsselungsverfahren. Seit Ende des 20. Jahrhunderts wer- den sie zur sicheren Kommunikation und für sichere Berechnungen eingesetzt. Krypto- analyse (auch Kryptanalyse) bezeichnet hingegen die Erforschung und Anwendung von Methoden, mit denen kryptographische Verfahren gebrochen („geknackt“) werden kön- nen.

Oft werden die Begriffe Kryptographie und Kryptologie gleichwertig benutzt, während sich z. B. beim US-Militär Kryptographie meist auf kryptographische Techniken be- zieht und Kryptologie als Oberbegriff für Kryptographie und Kryptoanalyse verwendet wird. Die Kryptographie kann also auch als Teilgebiet der Kryptologie gesehen werden. Das Untersuchen von Merkmalen einer Sprache, die Anwendung in der Kryptographie finden (z. B. Buchstabenkombinationen), wird Kryptolinguistik genannt. Abgrenzung zur Steganographie: Sowohl Kryptographie als auch Steganographie haben zum Ziel, die Vertraulichkeit einer Nachricht zu schützen. Allerdings unterscheiden sie sich im Ansatzpunkt der Verfahren:

-Kryptographie verschlüsselt die Nachricht. Somit sorgt sie dafür, dass eine unbeteiligte dritte Person, die die (verschlüsselten) Daten zu Gesicht bekommt, die Bedeutung nicht erfassen kann.

-Steganographische Verfahren verbergen den Kanal, über den kommuniziert wird. Eine unbeteiligte dritte Person bleibt dadurch in Unkenntnis der Kommunikation.

Kryptographische und steganographische Verfahren können kombiniert werden. Bei- spielsweise führt eine Verschlüsselung (Kryptographie) einer Nachricht, die über einen verdeckten Kanal kommuniziert wird (Steganographie), dazu, dass selbst nach dem Entdecken und erfolgreichen Auslesen des Kanals der Inhalt der Nachricht geheim bleibt.

Die moderne Kryptographie hat vier Hauptziele zum Schutz von Datenbeständen, Nachrichten und/oder Übertragungskanälen:

-Vertraulichkeit/Zugriffsschutz: Nur dazu berechtigte Personen sollen in der Lage sein, die Daten oder die Nachricht zu lesen oder Informationen über ihren Inhalt zu erlangen. -Integrität/Änderungsschutz: Die Daten müssen nachweislich vollständig und unverän- dert sein.

-Authentizität/Fälschungsschutz: Der Urheber der Daten oder der Absender der Nach- richt soll eindeutig identifizierbar sein, und seine Urheberschaft sollte nachprüfbar sein. -Verbindlichkeit/Nichtabstreitbarkeit: Der Urheber der Daten oder Absender einer Nachricht soll nicht in der Lage sein, seine Urheberschaft zu bestreiten, d. h., sie sollte sich gegenüber Dritten nachweisen lassen.

Kryptographische Verfahren und Systeme dienen nicht notwendigerweise gleichzeitig allen der hier aufgelisteten Ziele. Kryptographische Verfahren werden unterteilt in die klassischen und modernen Verfahren. -Methoden der klassischen Kryptographie: Solange für die Kryptographie noch keine elektronischen Rechner eingesetzt wurden, ersetzte man bei der Verschlüsselung (zu dieser Zeit die einzige Anwendung der Kryptographie) immer vollständige Buchstaben oder Buchstabengruppen. Solche Verfahren sind heute veraltet und unsicher.

-Transposition: Die Buchstaben der Botschaft werden einfach anders angeordnet. Bei- spiel: Gartenzaunmethode oder Skytale.

-Substitution: Die Buchstaben der Botschaft werden durch jeweils einen anderen Buch- staben oder ein Symbol ersetzt; siehe Monoalphabetische Substitution und Polyalphabe- tische Substitution. Beispiele dafür sind die Caesar-Verschlüsselung und die Vigenere- Verschlüsselung.

-Codebuch, ebenfalls ein klassisches Verfahren.

-Methoden der modernen Kryptographie: Entsprechend der Arbeitsweise von Compu- tern arbeiten moderne kryptographische Verfahren nicht mehr mit ganzen Buchstaben, sondern mit den einzelnen Bits der Daten. Dies vergrößert die Anzahl der möglichen Transformationen erheblich und ermöglicht außerdem die Verarbeitung von Daten, die keinen Text repräsentieren. Moderne Krypto-Verfahren lassen sich in zwei Klassen ein- teilen: Symmetrische Verfahren verwenden wie klassische kryptographische Verfahren einen geheimen Schlüssel pro Kommunikationsbeziehung und für alle Operationen (z. B. Ver- und Entschlüsselung) des Verfahrens; asymmetrische Verfahren verwenden pro Teilnehmer einen privaten (d. h. geheimen) und einen öffentlichen Schlüssel. Fast alle asymmetrischen kryptographischen Verfahren basieren auf Operationen in diskre- ten mathematischen Strukturen, wie z. B. endlichen Körpern, Ringen, elliptischen Kur- ven oder Gittern. Ihre Sicherheit basiert dann auf der Schwierigkeit bestimmter Berech- nungsprobleme in diesen Strukturen.

Viele symmetrische Verfahren und (kryptologische) Hashfunktionen sind dagegen eher Ad-hoc-Konstruktionen auf Basis von Bit-Verknüpfungen (z. B. XOR) und Substitu- tions-Tabellen für Bitfolgen. Einige symmetrische Verfahren, wie z. B. Advanced En- cryption Standard, Secret-Sharing oder Verfahren zur Strom Verschlüsselung auf Basis linear rückgekoppelter Schieberegister, verwenden aber auch mathematische Strukturen oder lassen sich in diesen auf einfache Weise beschreiben.

Der früheste Einsatz von Kryptographie findet sich im dritten Jahrtausend v. Chr. in der altägyptischen Kryptographie des Alten Reiches. Hebräische Gelehrte benutzten im Mittelalter einfache Zeichenaustauschalgorithmen (wie beispielsweise die Atbasch- Verschlüsselung). Im Mittelalter waren in ganz Europa vielfältige Geheimschriften zum Schutz des diplomatischen Briefverkehrs in Gebrauch, so etwa das Alphabetum Kal- deorum. Auch für heilkundliche Texte waren Geheimschriften in Gebrauch, etwa zur Niederschrift von Rezepten gegen die ab 1495 sich ausbreitende Syphilis.

Ende des 19. Jahrhunderts kam es aufgrund der weiten Verbreitung des Telegrafen (den man auf einfache Weise anzapfen und abhören konnte) zu neuen Überlegungen in der Kryptographie. So formulierte Auguste Kerckhoffs von Nieuwenhof mit Kerckhoffs’ Prinzip einen Grundsatz der Kryptographie, nachdem die Sicherheit eines kryptographi- schen Verfahrens allein auf der Geheimhaltung des Schlüssels basieren soll - das Ver- fahren selbst muss also nicht geheim gehalten werden; im Gegenteil: es kann veröffent- licht und von vielen Experten untersucht werden.

Im Zweiten Weltkrieg wurden mechanische und elektromechanische Schlüsselmaschi- nen, wie T52 oder SZ 42, zahlreich eingesetzt, auch wenn in Bereichen, wo dies nicht möglich war, weiterhin Handschlüssel wie der Doppelkastenschlüssel verwendet wur- den. In dieser Zeit wurden große Fortschritte in der mathematischen Kryptographie ge- macht. Notwendigerweise geschah dies jedoch nur im Geheimen. Die deutschen Mili- tärs machten regen Gebrauch von einer als ENIGMA bekannten Maschine, die ab 1932 durch polnische und ab 1939 durch britische Codeknacker gebrochen wurde.

Das Zeitalter moderner Kryptographie begann mit Claude Shannon, möglicherweise dem Vater der mathematischen Kryptographie. 1949 veröffentlichte er den Artikel Communication Theory of Secrecy Systems. Dieser Artikel, zusammen mit seinen an- deren Arbeiten über Informations- und Kommunikationstheorie, begründete eine starke mathematische Basis der Kryptographie. Hiermit endete auch eine Phase der Krypto- graphie, die auf die Geheimhaltung des Verfahrens setzte, um eine Entschlüsselung durch Dritte zu verhindern oder zu erschweren. Statt dieser - auch Security by obscurity genannten - Taktik müssen sich kryptografische Verfahren nun dem offenen wissen- schaftlichen Diskurs stellen.

Die Feisteistruktur von DES: 1976 gab es zwei wichtige Fortschritte. Erstens war dies der DES (Data Encryption Standard)-Algorithmus, entwickelt von IBM und der Natio- nal Security Agency (NSA), um einen sicheren einheitlichen Standard für die behör- denübergreifende Verschlüsselung zu schaffen (DES wurde 1977 unter dem Namen FIPS 46-2 (Federal Information Processing Standard) veröffentlicht). DES und sichere- re Varianten davon (3DES) werden bis heute z. B. für Bankdienstleistungen eingesetzt. DES wurde 2001 durch den neuen FIPS-197-Standard AES ersetzt.

Asymmetrische Kryptosysteme (Public-Key-Kryptographie): Der zweite und wichtigere Fortschritt war die Veröffentlichung des Artikels New Directions in Cryptography von Whitfield Diffie und Martin Hellman im Jahr 1976. Dieser Aufsatz stellte eine radikal neue Methode der Schlüsselverteilung vor und gab den Anstoß zur Entwicklung von asymmetrischen Kryptosystemen (Public-Key-Verfahren). Der Schlüsselaustausch war bis dato eines der fundamentalen Probleme der Kryptographie.

Vor dieser Entdeckung waren die Schlüssel symmetrisch, und der Besitz eines Schlüs- sels erlaubte sowohl das Verschlüsseln als auch das Entschlüsseln einer Nachricht. Da- her musste der Schlüssel zwischen den Kommunikationspartnem über einen sicheren Weg ausgetauscht werden, wie beispielsweise durch einen vertrauenswürdigen Kurier oder beim direkten Treffen der Kommunikationspartner. Diese Situation wurde schnell unüberschaubar, wenn die Anzahl der beteiligten Personen anstieg. Auch wurde ein je- weils neuer Schlüssel für jeden Kommunikationspartner benötigt, wenn die anderen Teilnehmer nicht in der Lage sein sollten, die Nachrichten zu entschlüsseln. Ein solches Verfahren wird als symmetrisch oder auch als ein Geheimschlüssel-Verfahren (Secret- Key) oder Geteiltschlüssel-Verfahren (Shared-Secret) bezeichnet. Bei einem asymmetrischen Kryptosystem wird ein Paar zusammenpassender Schlüssel eingesetzt. Der eine ist ein öffentlicher Schlüssel, der - im Falle eines Verschlüsse- lungsverfahrens - zum Verschlüsseln von Nachrichten für den Schlüsselinhaber benutzt wird. Der andere ist ein privater Schlüssel, der vom Schlüsselinhaber geheim gehalten werden muss und zur Entschlüsselung eingesetzt wird. Ein solches System wird als asymmetrisch bezeichnet, da für Ver- und Entschlüsselung unterschiedliche Schlüssel verwendet werden.

Mit dieser Methode wird nur ein einziges Schlüsselpaar für jeden Teilnehmer benötigt, da der Besitz des öffentlichen Schlüssels die Sicherheit des privaten Schlüssels nicht aufs Spiel setzt. Ein solches System kann auch zur Erstellung einer digitalen Signatur genutzt werden. Die digitale Signatur wird aus den zu signierenden Daten oder ihrem Hashwert und dem privaten Schlüssel berechnet. Die Korrektheit der Signatur - und damit die Integrität und Authentizität der Daten - kann durch entsprechende Operatio- nen mit dem öffentlichen Schlüssel überprüft werden. Public-Key-Verfahren können auch zur Authentifizierung in einer interaktiven Kommunikation verwendet werden.

Am 17. Dezember 1997 veröffentlichten die britischen Government Communications Headquarters (GCHQ) ein Dokument, in welchem sie angaben, dass sie bereits vor der Veröffentlichung des Artikels von Diffie und Hellman ein Public-Key-Verfahren ge- funden hätten. Verschiedene als geheim eingestufte Dokumente wurden in den 1960er- und 1970er-Jahren u. a. von James H. Ellis, Clifford Cocks und Malcolm Williamson verfasst, die zu Entwürfen ähnlich denen von RSA und Diffie-Hellman führten.

Ein homomorphes Verschlüsselungsverfahren erlaubt es, Berechnungen auf verschlüs- selten Daten durchzuführen. Dem Kryptologen Craig Gentry gelang es 2009 nachzu- weisen, dass ein Verschlüsselungsverfahren existiert, das beliebige Berechnungen auf verschlüsselten Daten zulässt. Eine homomorphe Verschlüsselung spielt eine wichtige Rolle beim Cloud-Computing. Um Datenmissbrauch bei der Verarbeitung sensibler Da- ten zu vermeiden, ist es wünschenswert, dass der Dienstleister nur auf den verschlüssel- ten Daten rechnet und die Klartexte nie zu Gesicht bekommt. Die Sicherheit der meisten asymmetrischen Kryptosysteme beruht auf der Schwierig- keit von Problemen, die in der algorithmischen Zahlentheorie untersucht werden. Die bekanntesten dieser Probleme sind die Primfaktorzerlegung und das Finden diskreter Logarithmen.

Die Sicherheit der faktorisierungsbasierten Public-Key-Kryptographie liegt in der Ver- wendung eines Produkts aus großen Primzahlen, welches als öffentlicher Schlüssel dient. Der private Schlüssel besteht aus den dazugehörenden Primfaktoren bzw. davon abgeleiteten Werten. Die Zerlegung einer hinreichend großen Zahl gilt aufgrund der sehr aufwendigen Faktorisierung als nicht praktikabel.

Anschaulich gesprochen ist es trotz ausgefeilter Faktorisierungsverfahren schwierig, zu einer gegebenen Zahl, die das Produkt zweier großer Primfaktoren ist, z. B. der Zahl 805963, einen dieser Faktoren zu finden. Der Berechnungsaufwand zum Finden eines Faktors wächst dabei mit zunehmender Länge der Zahl sehr schnell, was bei genügend großen Zahlen dazu fuhrt, dass die Faktorisierung auch auf einem Supercomputer tau- sende Jahre dauern würde. In der Praxis werden daher Zahlen mit mehreren hundert Dezimalstellen verwendet.

Für die Multiplikation großer Zahlen existieren hingegen effiziente Algorithmen; es ist also leicht, aus zwei Faktoren (919 und 877) das Produkt (805963) zu berechnen. Diese Asymmetrie im Aufwand von Multiplikation und Faktorisierung macht man sich in bei faktorisierungsbasierten Public-Key-Verfahren zu Nutze. Kryptographisch sichere Ver- fahren sind dann solche, für die es keine bessere Methode zum Brechen der Sicherheit als das Faktorisieren einer großen Zahl gibt, insbesondere kann der private nicht aus dem öffentlichen Schlüssel errechnet werden.

Außer dem Faktorisierungsproblem finden sowohl das Problem des Diskreten Log- arithmus (Elgamal-Kryptosystem) als auch fortgeschrittene Methoden der algebraischen Zahlentheorie, wie etwa die Verschlüsselung über elliptische Kurven (ECC) breite An- wendung. Ein weiteres Anwendungsgebiet ist die Kodierungstheorie, die sich in ihrer modernen Form auf die Theorie der algebraischen Funktionenkörper stützt. Siehe auch: Post-Quanten-Kryptographie .

Die derzeit wichtigsten Public-Key- Verfahren (RSA), Verfahren, die auf dem Diskreten Logarithmus in endlichen Körpern beruhen (z. B. DSA oder Diffie-Hellman), und Ellip- tic Curve Cryptography könnten theoretisch durch so genannte Quantencomputer in Po- lynomialzeit gebrochen werden und somit ihre Sicherheit verlieren. In Zeiten des Inter- nets wurde der Ruf auch nach privater Verschlüsselung laut. Bislang waren es Regie- rungen und globale Großunternehmen, die die RSA-Verschlüsselung aufgrund notwen- diger, leistungsstarker Computer einsetzen konnten. Der amerikanische Physiker Phil Zimmermann entwickelte daraufhin eine RSA-Verschlüsselung für die breite Öffent- lichkeit, die er Pretty Good Privacy (PGP) nannte und im Juni 1991 im Usenet veröf- fentlichte. Neu bei diesem Verfahren war die Möglichkeit, eine E-Mail mit einer digita- len Unterschrift zu unterzeichnen, die den Urheber der Nachricht eindeutig ausweist.

Da es moderne, computergestützte Verfahren jedem möglich machen, Informationen si- cher zu verschlüsseln, besteht seitens der Regierungen ein Bedürfnis, diese Informatio- nen entschlüsseln zu können. Die US-Regierung prüfte im Jahr 1996, ob ein Verfahren gegen den Erfinder von PGP, Phil Zimmermann, wegen illegalen Waffenexports einge- leitet werden könne. Sie stellte das Verfahren jedoch nach öffentlichen Protesten ein. In den USA unterliegt Kryptographie, wie auch in vielen anderen Ländern, einem Export- beschränkungsgesetz. In den USA regelt der Arms Export Control Act und die Interna- tional Traffic in Arms Regulations den Export von Kryptographietechniken.

Oft gelingt Untersuchungsbehörden die Entschlüsselung eines Beweisstücks nur mit Hilfe des privaten Schlüssels. Es gibt in verschiedenen Ländern Mitwirkungspflichten bei der Entschlüsselung von Beweismaterial. Teilweise wird dabei auch vom Verdäch- tigten verlangt, den Schlüssel preiszugeben. In Großbritannien wurden Zuwiderhand- lungen schon mit langen Haftstrafen geahndet. Nach Ansicht von Kritikern widerspricht dies dem Aussageverweigerungsrecht. In Frankreich gab es von 1990 bis 1996 ein Gesetz, das zum Deponieren dieses Schlüs- sels bei einer„vertrauenswürdigen Behörde“ verpflichtete. Damit verbunden war ein Verbot anderer Verfahren und Schlüssel. Einem Journalisten, der dies praktizieren woll- te, ist es allerdings nicht gelungen, eine dafür zuständige Behörde zu finden. Nach einer Lockerung des Gesetzes 1996 ist die Verwendung bestimmter Kryptographieverfahren genehmigungspflichtig. Auch in Deutschland und in der EU gibt es seit Jahren Debatten über gesetzliche Kontrolle der Kryptographie. Ein Verbot der Kryptographie ist nicht praktikabel, da die Algorithmen bekannt sind und jeder mit den notwendigen Program- mierkenntnissen ein entsprechendes Programm selbst schreiben könnte. Web- Anwendungen wie z. B. elektronisches Banking oder Shopping sind ohne Kryptogra- phie nicht denkbar hn Rahmen der digitalen Rechteverwaltung werden Kryptographie- verfahren eingesetzt, deren Umgehung (mittels Kryptoanalyse) unter Strafe gestellt ist. Siehe auch:

-CrypTool - Lernsoftware zum Thema Kryptographie und Kryptoanalyse, Open-Source

-Kleptographie

-Molekularer Schlüssel

109. Symmetrisches Kryptosystem

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie.

Verschlüsselung und Entschlüsselung mit demselben Schlüssel: Ein symmetrisches Kryptosystem ist ein Kryptosystem, bei welchem im Gegensatz zu einem asymmetri- schen Kryptosystem beide Teilnehmer denselben Schlüssel verwenden. Bei manchen symmetrischen Verfahren (z. B. IDEA) sind die beiden Schlüssel nicht identisch, aber können leicht auseinander berechnet werden. Dieser Artikel beschränkt sich auf die Darstellung von Verschlüsselungsverfahren. Manchmal werden auch Message Authen- tication Codes als symmetrisches Kryptosystem bezeichnet. Formal ist ein symmetrisches Verschlüsselungsverfahren ein Tupel ( M , C , K , E , D ) {\displaystyle (M,C,K,E,D)} , wobei M {\displaystyle M} die Menge der möglichen Klartexte, C {\displaystyle C} die Menge der möglichen Chifffate und K {\displaystyle K} die Menge der erlaubten Schlüssel ist. E : K x M ® C {\displaystyle E:K\times M\to C} ist die Verschlüsselungsfunktion und D : K x C ® M {\displaystyle D:K\times C\to M} die Entschlüsselungsfunktion. Das Verfahren muss korrekt sein, in dem Sinne dass für alle k e K , m e M {\displaystyle k\in K,m\in M} gilt D ( k , E ( k , m ) ) = m {\displaystyle D(k,E(k,m))=m} .

Man teilt die symmetrischen Verfahren in Blockchiffren-basierte Verfahren und Strom- chiffren auf. Mit Stromchiffren wird der Klartext Zeichen für Zeichen verschlüsselt, um den Geheimtext zu erhalten, bzw. entschlüsselt, um den Klartext zu erhalten. Eine Blockchiffre arbeitet mit einer festen Blockgröße und ver- bzw. entschlüsselt mehrere Zeichen in einem Schritt. Um damit Texte beliebiger Länge verschlüsseln zu können, sind Betriebsmodi festgelegt, die bestimmen, wie die Blockchiffre verwendet wird.

Der große Nachteil symmetrischer Verfahren liegt in der Nutzung ein- und desselben Schlüssels zur Ver- und Entschlüsselung, d. h. neben der verschlüsselten Information muss auch der Schlüssel übermittelt werden. Das Problem beim Einsatz symmetrischer Verfahren ist, dass der Schlüssel über einen sicheren Kanal übertragen werden muss, denn die Sicherheit des Verfahrens hängt von der Geheimhaltung des Schlüssels ab. Früher wurde der Schlüssel typischerweise durch einen Boten persönlich überbracht.

Seit den 1970er Jahren sind mit dem Diffie-Hellman-Schlüsselaustausch asymmetrische Schlüsselaustauschprotokolle bekannt, mit denen auch über einen ab gehörten Kanal Schlüssel sicher übertragen werden können. Eine weitere Möglichkeit ist der Einsatz asymmetrischer Verschlüsselungsverfahren um den symmetrischen Schlüssel selbst zu verschlüsseln und ihn so geschützt auch über einen unsicheren Kanal übertragen zu können. Bei der Kommunikation können mit dieser hybriden Verschlüsselung also die Vorteile (beispielsweise die höhere Geschwindigkeit) der symmetrischen Verschlüsse- lung ausgenutzt werden, während der Schlüssel durch die asymmetrische Verschlüsse- lung vor dem Zugriff eines Angreifers geschützt wird.

Symmetrische Verfahren gibt es bereits seit dem Altertum. Bis in die 1970er Jahre wa- ren überhaupt nur symmetrische Verfahren bekannt. Die Verfahren sind:

-AES (Advanced Encryption Standard) oder Rijndael: der US-amerikanische Ver- schlüsselungsstandard, Nachfolger des DES; von Joan Daemen und Vincent Rijmen entwickeltes Blockverschlüsselungsverfahren

-DES (Data Encryption Standard) oder Lucifer: bis zum Oktober 2000 der Verschlüsse- lungsstandard der USA. Lucifer, das Verfahren, wurde 1974 von IBM entwickelt. Die Version für Privatanwender heißt Data Encryption Algorithm (DEA).

-Triple-DES: eine Weiterentwicklung des DES-Verfahrens; dreimal langsamer, aber um Größenordnungen sicherer

-EDEA (International Data Encryption Algorithm): ein 1990 an der ETH Zürich entwic- keltes Blockverschlüsselungsverfahren; Software-patentiert von Ascom Systec; An- wendung in PGP

-Blowfish: 1993 von Bruce Schneier entwickeltes Blockverschlüsselungsverfahren, un- patentiert

-QUISCI (Quick Stream Cipher): sehr schnelles Stromverschlüsselungsverfahren von Stefan Müller 2001 entwickelt, unpatentiert

-Twofish: Blockverschlüsselungsverfahren, vom Counterpane Team; wird u. a. in Microsoft Windows eingesetzt.

-CAST-128, CAST-256: Blockverschlüsselungsverfahren von Carlisle M. Adams, un- patentiert

-RC2, RC4, RC5, RC6 („Rivest Cipher“): mehrere Verschlüsselungsverfahren von Ronald L. Rivest

-Serpent: Blockverschlüsselungsverfahren von Ross Anderson, Eli Biham und Lars Knudsen, unpatentiert

-One-Time-Pad: unbrechbares Einmalschlüssel- Verfahren von Gilbert Vemam und Jo- seph Mauborgne 110. Schlüssel in der Kryptologie

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie.

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Ergänzung in der Kryptologie.

Der Schlüssel ist die zentrale Komponente, um einen Geheimtext zu entschlüsseln und so den Klartext zu gewinnen. Als Schlüssel wird in der Kryptologie eine Information bezeichnet, die einen kryptographi sehen Algorithmus parametrisiert und ihn so steuert. Im einfachsten Fall, bei den meisten symmetrischen Verfahren der klassischen Krypto- graphie wie beispielsweise der Vigenere-Chiffre oder dem Playfair-Verfahren, handelt es sich dabei um ein Kennwort, das benutzt wird, um einen Klartext zu verschlüsseln und so einen Geheimtext zu erhalten. Umgekehrt wird dieses Kennwort erneut als Schlüssel benötigt, um aus dem Geheimtext durch Entschlüsselung wieder den Klartext zu gewinnen. Bei modernen, computerbasierten symmetrischen und auch asymmetri- schen Verfahren ist der Schlüssel hingegen eine Bitfolge.

In vielen Fällen, speziell bei Maschinenschlüsseln, wird zwischen zwei Teilschlüsseln unterschieden. Erstens dem Tagesschlüssel (zuweilen auch „innerer Schlüssel“ ge- nannt), der für einen gewissen Zeitraum gültig bleibt, oft für einen Tag. Und zweitens dem Spruchschlüssel (auch„äußerer Schlüssel“), der sich für jede einzelne Nachricht ändert. Beide zusammen bilden den kryptographi sch wirksamen Schlüssel.

Im Jahr 1883 formulierte Auguste Kerckhoffs seine Maxime, nämlich, dass die Sicher- heit eines kryptographi sehen Verfahrens nicht von der Geheimhaltung des Algorithmus, sondern nur von der Geheimhaltung des verwendeten Schlüssels abhängen darf (Kerckhoffs’ Prinzip). Der Schlüssel beinhaltet bei einem symmetrischen Verfahren (andere waren zu seiner Zeit noch nicht bekannt) die Information, die geheim bleiben muss, während der Algorithmus, also das Verschlüsselungsverfahren selbst, öffentlich bekannt sein darf. Bei asymmetrischen Verschlüsselungsverfahren, auch als„Public- Key-Kryptographie“ bezeichnet, übernimmt die Rolle des Geheimnisses der private Schlüssel, während der dazugehörige öffentliche Schlüssel allgemein bekannt ist.

Bei symmetrischen Verfahren, also bei allen klassischen Methoden der Kryptographie und auch bei modernen Algorithmen wie beispielsweise dem Data Encryption Standard (DES) oder seinem Nachfolger, dem Advanced Encryption Standard (AES), verwenden beide Kommunikationspartner denselben (geheimen) Schlüssel sowohl zum Ver- als auch zum Entschlüsseln. Während klassische Methoden, bei denen der Text von Hand geschlüsselt (also verschlüsselt und/oder entschlüsselt) werden muss, als Schlüssel fast immer ein Kennwort benutzen, besteht der Schlüssel bei modernen, also computerba- sierten, symmetrischen Verfahren zumeist aus einer Bitfolge.

Die Sicherheit eines Verfahrens hängt außer vom Algorithmus selbst von der Schlüssel- länge ab. Wenn gegen ein Verfahren ein Angriff gefunden wird, der effizienter ist als die Brute-Force-Methode, das Ausprobieren aller möglichen Schlüssel, gilt das Verfah- ren als gebrochen. Die Schlüssellänge gibt bei einem sicheren Verfahren also direkt das Sicherheitsniveau an.

Asymmetrische Verfahren, wie beispielsweise das RSA-Kryptosystem, verwenden Schlüsselpaare, die aus einem öffentlichen Schlüssel (englisch public key) und einem privaten Schlüssel (engl private key, deutsch auch„geheimer Schlüssel“) bestehen.

Der öffentliche Schlüssel ist nicht geheim, er soll möglichst vielen anderen Benutzern bekannt sein, beispielsweise durch Verteilung über Schlüsselserver. Mit ihm können öf- fentliche Operationen durchgefuhrt werden, also Nachrichten verschlüsselt oder digitale Unterschriften geprüft werden. Dabei ist es wichtig, dass ein öffentlicher Schlüssel ein- deutig einem Benutzer zugeordnet werden kann. Ist das nicht der Fall, wird etwa eine Nachricht mit dem öffentlichen Schlüssel eines anderen Benutzers verschlüsselt, so kann dieser die Nachricht lesen, obwohl sie nicht für ihn bestimmt war. Um Schlüssel leicht benennen zu können, benutzt man einen Fingerabdruck, einen kurzen Hashwert, der einen Schlüssel eindeutig identifiziert.

Um einen Geheimtext wieder zu entschlüsseln oder eine Nachricht zu signieren, wird der private Schlüssel benötigt hn Gegensatz zu symmetrischen Verfahren, bei denen sich mehrere Benutzer einen geheimen Schlüssel teilen, verfugt bei asymmetrischen Verfahren nur ein Benutzer über den privaten (geheimen) Schlüssel. Dieser Umstand ermöglicht es erst, eine Signatur eindeutig einem Benutzer zuzuordnen. Daher ist es grundlegend, dass der private Schlüssel nicht aus dem öffentlichen abgeleitet werden kann.

111. FID02 / FIDO- Allianz

Weitere Ausführungsformen für die Erfindung:

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie. Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungssystem und/oder Verfahren, insbesondere Block- chainverfahren, vorzugsweise zur Vermeidung von unsicheren Fidoanwendungen.

FID02 ist ein Projekt der FIDO-Allianz und des W3C mit dem Ziel, eine starke Au- thentifizierungslösung für das Web zu entwickeln. Im Kern besteht FED02 aus dem W3C-Web-Authentication-Standard (WebAuthn) und dem FIDO-Client-to- Authenticator-Protocol (CTAP). FID02 basiert auf früheren Arbeiten der FIDO- Allianz, insbesondere dem Universal 2nd Factor (U2F)-Authentifizierungsstandard. Mit dem Release von FID02 wurde U2F in CT API umbenannt.

Zusammengenommen spezifizieren WebAuthn und das korrespondierende Client-to- Authenticator Protocoll (CTAP) der FIDO-Allianz ein Standardauthentifizierungspro- tokoll bei dem die Endpunkte aus benutzerkontrollierten eingebetteten (oder gebunde- nen) kryptografischen Authentifikatoren (wie Biometrie oder PINs) oder externen (oder Roaming) Authentifikatoren (wie FIDO Security Keys, mobilen Geräten, Wearables etc.) und einer vertrauenswürdigen WebAuthn -Gegenstelle (auch FID02 -Server ge- nannt) bestehen. Ein Web-Benutzerprogramm, wie zum Beispiel ein Browser, bildet zusammen mit einem WebAuthn-Client einen Vermittler zwischen dem Authentifizie- rer und der vertrauenswürdigen Gegenstelle. Ein einzelnes WebAuthn-Clientgerät kann mehrere WebAuthn-Clients unterstützen. Zum Beispiel kann ein Laptop mehrere Cli- ents unterstützen: Einer für jedes auf dem Laptop laufende kompatible Benutzerpro- gramm. Dafür muss das Benutzerprogramm die WebAuthn-JavaScript-API implemen- tieren.

Wie der Name bereits andeutet, ermöglicht es das Client-to-Authenticator-Protocol (CTAP) einem kompatiblen kryptografischen Authentifizierer, mit dem WebAuthn- Client zu interagieren. Die CTAP-Spezifikation verweist auf zwei Protokollversionen: CTAP/U2F und CTAP2. Ein Authentifizierer, der eines dieser Protokolle implemen- tiert, wird, je nachdem, U2F-Authentifizierer oder FID02 -Authentifizierer genannt. Es gibt auch abwärtskompatible Authentifizierer, die beide Protokolle implementieren. CTAP1 ermöglicht die Verwendung vorhandener FIDO U2F-Geräte (z. B. FIDO- Sicherheitsschlüssel) zur Authentifizierung an FID02 -fähigen Browsern und Betriebs- systemen über USB, NFC oder BLE für ein Zweitfaktor -Erlebnis. CTAP2 ermöglicht die Verwendung externer Authentifikatoren (FIDO Security Keys, mobile Geräte) zur Authentifizierung an FID02 -fähigen Browsern und Betriebssystemen über USB, NFC oder BLE für eine passwortlose, Zweit- oder Mehr-Faktor-Authentifizierung.

FIDO-Allianz: Die nichtkommerzielle FIDO-Allianz (FIDO = Fast IDentity Online, deutsch:„schnelle Identität bei digitalen Verbindungen“) wurde im Juli 2012 ins Leben gerufen und im Februar 2013 offiziell gegründet, um zusammen mit vielen verschiede- nen Unternehmen offene und lizenzfreie Industriestandards für die weltweite Authenti- fizierung im Internet zu entwickeln. Der Geschäftssitz der Allianz ist in Kalifornien. [1] ( FIDOAlliance.org)

In diesem Rahmen hat die Allianz bis Ende 2014 zwei Standards entwickelt. Der Stan- dard U2F (Universal Second Factor, dt.:„universeller zweiter Faktor“) dient zur Spezi- flkation von Hard- und Software für die Zwei-Faktor-Authentifizierung. Der Standard UAF (Universal Authentication Framework, dt.:„universelles Rahmenwerk zur Au- thentifizierung“) spezifiziert das dazugehörige Netzwerkprotokoll zur kennwortlosen Authentifizierung. Am 9. Dezember 2014 wurde der erste Standard mit der Bezeich- nung FIDO vl .0 veröffentlicht, der beide Spezifikationen enthält.

Mittels der Standards soll die Authentifizierung im Internet sicher, schnell und einfach möglich sein, und ein Benutzer braucht nicht mehr auf zahlreiche verschiedene sichere Kennwörter zurückzugreifen, um sichere Verbindungen herzustellen. Die persönlichen Daten und die privaten Schlüssel bleiben immer und ausschließlich im Besitz des Be- nutzers und werden nicht auf öffentlichen Servern gespeichert.

Die für die Standards zertifizierten Produkte können von den Anbietern mit dem mar- kenrechtlich geschützten Logo FIDO ready gekennzeichnet werden. Geeignete Hard- und Software kann sowohl in Betriebssysteme als auch in Webbrowser integriert wer- den. Im Februar 2015 kündigte Microsoft an, dass der FIDO-Standard 2.0 vom neuen Betriebssystem Windows 10 unterstützt wird. Zur Authentifizierung im Internet können hierbei drei grundsätzlich verschiedene Faktoren kombiniert werden:

-Wissen des Benutzers, wie zum Beispiel Kennwörter oder Persönliche Identifikati- onsnummern

-Besitztümer des Benutzers, wie zum Beispiel Security-Token nach dem U2F-Standard -Eigenschaften des Benutzers, wie zum Beispiel Fingerabdruck, Stimme, Aussehen

Bei der Registrierung der FIDO-Unterstützung zu einem Dienst wird auf dem Gerät des Benutzers jedes Mal ein Schlüsselpaar generiert. Der öffentliche Schlüssel wird an den Server gesendet und der private Schlüssel wird sicher im sogenannten FIDO- Authenticator gespeichert. Der Zugriff auf diesen Authenticator wird lokal gesichert. Dies kann durch biometrische Verfahren (beispielsweise Iris- oder Fingerabdruck- Scan), vorher erworbene USB-, NFC-, beziehungsweise Bluetooth-Security-Tokens oder andere Verfahren geschehen. Beim Anmeldevorgang verschlüsselt der entsperrte FIDO-Authenticator die Anfrage des Servers mit dem privaten Schlüssel und beantwortet mit dem erzielten Ergebnis die Anfrage. Der Server kann nun mittels des hinterlegten öffentlichen Schlüssels die Au- thentizität des Benutzers überprüfen und validieren.

Mitglieder: Die meisten Mitglieder der FIDO-Allianz haben ihren Hauptsitz in asiati- schen, europäischen oder nordamerikanischen Ländern. Viele Mitglieder der FIDO- Allianz sind multinationale Unternehmen. Die sechs Gründungsmitglieder im Sommer 2012 waren: Agnitio, Infineon, Lenovo, Nok Nok Labs, PayPal und Validity Sensors. Ende 2014 gehörten unter anderem auch die folgenden Unternehmen zu den Hauptmit- gliedem der Allianz: Alibaba Group, Bank of America, Blackberry, Google Inc., Ma- sterCard, Microsoft, NXP Semiconductors, Oberthur, Qualcomm, RSA Security, Samsung, Synaptics, Visa Inc. und Yubico. Die folgenden Unternehmen unterstützen die Allianz unter anderem: CA Technologies, Cherry, Dell, Gemalto, LG Electronics, Morpho Cards, Netflix, Österreichische Staatsdruckerei, plantronics, Safenet und SK Telecom.

Ende 2014 hatte die Allianz bereits mehr als 150 Mitglieder. Am 5. Oktober 2015 ist das Bundesamt für Sicherheit in der Informationstechnik der Allianz beigetreten.

112. Zwei-Faktor-Authentisierung

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie. Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungssystem und/oder Verfahren, insbesondere Block- chainverfahren, als technische Neuerung und zur Vermeidung der unsicheren Zwei- Faktor-Authentisierung (2FA).

Die Zwei-Faktor-Authentisierung (2FA), häufig auch als Zwei-Faktor- Authentifizierung bezeichnet, bezeichnet den Identitätsnachweis eines Nutzers mittels der Kombination zweier unterschiedlicher und insbesondere unabhängiger Komponen- ten (Faktoren). Typische Beispiele sind Bankkarte plus PIN beim Geldautomaten, Fin- gerabdruck plus Zugangscode in Gebäuden, oder Passphrase und TAN beim Online- Banking. Die Zwei-Faktor-Authentisierung ist ein Spezialfall der Multi-Faktor- Authentisierung.

Für sicherheitskritische Anwendungsbereiche wird die Zwei-Faktor-Authentisierung empfohlen, so beispielsweise vom deutschen Bundesamt für Sicherheit in der Informa- tionstechnik in seinen IT-Grundschutz-Katalogen. In Bankwesen wurde mit der EU- Zahlungsdiensterichtlinie die Zwei-Faktor-Authentisierung für den Europäischen Wirt- schaftsraum 2018 verpflichtend eingeführt. Auch einige Webplattformen, wie Amazon oder Google (Authenticator), haben dieses System eingeführt.

Die Zwei-Faktor-Authentisierung ist nur dann erfolgreich, wenn beide festgelegten Fak- toren zusammen eingesetzt werden und korrekt sind. Fehlt eine Komponente oder wird sie falsch verwendet, lässt sich die Zugriffsberechtigung nicht zweifelsfrei feststellen und der Zugriff wird verweigert.

Die Faktoren können sein:

-geheimnishütender Gegenstand (Besitz), wie zum Beispiel ein Sicherheits-Token, eine Bankkarte, ein Kurzzeitkennwortgenerator oder ein physischer Schlüssel,

-geheimes Wissen, wie zum Beispiel eine Passphrase, ein Einmalkennwort, eine PIN oder eine Transaktionsnummer (TAN),

-biometrische Charakteristika (Inhärenz), wie zum Beispiel ein Fingerabdruck, das Mu- ster einer Regenbogenhaut (Iris-Erkennung), die menschliche Stimme oder das Gang- muster.

Die beiden Faktoren müssen nicht unbedingt verschiedener Gattungen sein (zum Bei- spiel Passwort plus TAN beim Online-Banking), müssen aber immer durch zwei ge- trennte Übertragungskanäle übermittelt werden. Der Forderung, dass sie nicht am glei- chen Ort gespeichert bzw. aufbewahrt werden, wird heute oft nicht mehr nachgekom- men, so nutzen zahlreiche Banken heute das TAN-Verfahren und die Login-Oberfläche als kombinierte E-Banking-App auf demselben Endgerät, sodass mit dessen Verlust oder bei einer Sicherheitslücke beide Übertragungskanäle in eine Hand kommen. Wird für die Authentisienmg unter anderem ein beschützter Gegenstand gefordert, ergibt sich der Nachteil, dass dieser jederzeit mitgeführt werden muss, sofern der Nut- zer sich jederzeit anmelden können möchte. Wird der Gegenstand gestohlen, verloren oder hat der Nutzer ihn schlicht nicht dabei, sind Zugriffe unmöglich. Außerdem ent- stehen Kosten: zum einen bei der Erstanschaffung, zum anderen bei Ersatzbeschaffun- gen. Um diesen Risiken aus dem Weg zu gehen, ist die mittelbare Zwei-Faktor- Authentisierung als Alternative entwickelt worden. Sie nutzt Mobilgeräte wie Mobilte- lefone und Smartphones als Token, also„etwas, was der Nutzer besitzt“ (aber auch ver- lieren kann). Möchte sich der Anwender authentisieren, muss er meist eine Passphrase und einen einmalig gültigen, dynamisch erzeugten Passcode eingeben. Diesen Code er- hält er per SMS, E-Mail oder über eine entsprechende App auf sein Mobilgerät gesen- det. Der Vorteil bei dieser Methode. Kein zusätzlicher Token muss angeschafft und be- schützt werden, da das Mobilgerät bei vielen Menschen heutzutage ohnehin schon stän- diger Begleiter ist.

Einige professionelle Lösungen sorgen dafür, dass stets ein gültiger Passcode bereit- steht. Hat der Nutzer eine Ziffemfolge verwendet, wird diese automatisch gelöscht, und das System sendet einen neuen Code an das Mobilgerät. Wird der neue Code nicht in- nerhalb einer festgelegten Frist eingegeben, ersetzt ihn das System automatisch. Auf diese Weise verbleiben keine alten, schon verwendeten Codes auf der mobilen Kompo- nente. Für noch gesteigerte Sicherheit lässt sich festlegen, wie viele Falscheingaben to- leriert werden, bevor das System den Zugang sperrt.

Wenn der sich authentisierende Benutzer keine manuelle Dateneingabe mehr zu erledi- gen braucht, gilt der Prozess als halbautomatisiert. Das ist mit der NFC-Methode er- reicht. Verwendet wird dazu ein zuvor personalisiertes Mobilgerät. Erst dann, wenn der sich authentisierende Benutzer keinerlei Handhabung mehr zu erledigen braucht, gilt der Prozess als vollautomatisiert. Das ist mit dem Verwenden von Piconetzen (Bluetooth) als internationaler Industrie-Standard erreicht. Verwendet wird dazu ein zu- vor personalisiertes Mobilgerät. Die FIDO-Allianz hat am 9. Dezember 2014 die erste Version des universellen und li- zenzfreien Standards U2F für die Zwei-Faktor-Authentisierung veröffentlicht, die mit verschiedenen Verfahren und Geräten kompatibel ist. Im Februar 2015 kündigte Microsoft an, dass der Standard 2.0 der FIDO-Allianz für die Authentifikation im Inter- net vom Betriebssystem Windows 10 unterstützt wird.

113. NEO (Kryptowährung)

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie. Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungssystem und/oder Verfahren, insbesondere Block- chainverfahren, als technische Neuerung für Kryptowährungen, insbesondere Bitcoin und/oder Neo und zur Vermeidung der imsicheren Zwei-Faktor-Authentisierung (2FA).

NEO www.neo.org ist eine Blockchain-Plattform und Kryptowährung, die die Entwick- lung digitaler Assets und intelligenter Verträge - sogenannter Smart Contracts - ermög- licht. Das Projekt hat seinen Sitz in der Volksrepublik China und wurde ursprünglich im Jahr 2014 als AntShares gestartet. NEO verwendet einen Konsensusmechanismus auf Basis einer delegierten Byzantinischen Fehlertoleranz (dBFT) und kann bis zu 10.000 Transaktionen pro Sekunde abwickeln. NEO-Token können benutzt werden, um GAS-Tokens zu erzeugen, die als Plattformressource verwendet werden, um die Be- rechnung oder den Einsatz von Smart Contracts innerhalb des NEO-Netzwerks zu be- zahlen. Die von Da Hongfei entwickelte Kryptowährung wird aufgrund dieser Eigen- schaften auch das Ethereum Chinas genannt.

Insgesamt wurden 100 Millionen NEO ausgegeben und repräsentiert. Sie wurden im Genesis-Block erstellt und nach einem Verteilungsmechanismus verteilt. Die kleinste Einheit des NEO ist 1 NEO und kann nicht geteilt werden. Im Januar 2018 betrug die Marktkapitalisierung von NEO etwa 12 Milliarden US-Dollar und war derzeit eine der zehn wertvollsten Kryptowährungen.

114. Byzantinischer Fehler

Weitere Ausführungsformen für die Erfindung:

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung zur Vermeidung eins byzantinischen Fehlers.

Beispiel eines byzantinischen Fehlers: von 3 Uhren ist eine Uhr fehlerhaft und verur- sacht einen byzantinischen Fehler, indem (anstatt 1000) das eine Mal 500 und das ande- re Mal 1500 gesendet werden. Als byzantinische Fehler bezeichnet man in der Informa- tionstechnik Fehler, bei denen sich ein System beliebig falsch verhält. Beispielsweise schickt ein Server gelegentlich falsche Antworten und erreicht gelegentlich falsche Sy- stemzustände. Ein byzantinischer Fehler beschreibt im Allgemeinen ein schwer zu er- fassendes Fehleimodell.

In Mehrprozessor-Systemen bezeichnet der byzantinische Fehler eine Fehlerklasse. Falls eine Komponente an verschiedene Prozessoren unterschiedliche (protokollkon- forme) Ergebnisse liefert, spricht man von einem byzantinischen Fehler. Bei der Pla- nung wird davon ausgegangen, dass x (\displaystyle x} Prozessoren bösartig arbeiten und das System maximal stören wollen.

Das Adjektiv byzantinisch bezieht sich auf das Problem der byzantinischen Generäle. Bei der Belagerung einer Stadt haben mehrere Generäle ein Kommunikationsproblem. Wegen der starken Befestigung ist es notwendig, dass die Generäle mit ihren Truppen die Stadt gleichzeitig aus verschiedenen Richtungen angreifen. Die Generäle können über Boten miteinander kommunizieren. Allerdings intrigieren einige der Generäle ge- gen andere. Ihr Ziel ist es, ihre Konkurrenten in Misskredit zu bringen - beispielsweise dadurch, dass sie die anderen durch geschickt gestreute Fehlinformationen zu einem verfrühten Angriff treiben wollen. Keiner der Generäle weiß nun, welche Information authentisch ist und wem sie vertrauen können.

Es geht also um ein Problem der Übereinkunft, welches darin besteht, dass die Heerfüh- rer einstimmig beschließen müssen, ob sie angreifen oder nicht. Kompliziert wird das Problem durch die räumliche Trennung der Befehlshaber; sie müssen also Boten hin- und herschicken. Außerdem kommt die Möglichkeit hinzu, dass sich unter den Generä- len Verräter befinden können, die an die anderen Generäle absichtlich irreführende In- formationen schicken können.

Mathematisch zeigte sich, dass die loyalen Generäle unter diesen Voraussetzungen nur dann eine Einigungschance haben, wenn der Anteil der Intriganten kleiner als ein Drit- tel ist. Somit gab es insbesondere bei drei Generälen, von denen einer ein Intrigant ist, keine Lösung - jedenfalls nicht mit Hilfe klassischer Kommunikationsmethoden wie Boten.

Die erste Veröffentlichung mit Lösungen zum Problem der byzantinischen Generäle geht zurück auf Leslie Lamport, Robert Shostak und Marshall Pease im Jahr 1982. Sie führten das Problem auf ein Problem von Befehlshaber und Leutnant zurück, wobei alle loyalen Leutnants in Einklang handeln müssen und ihre Aktionen mit den Befehlen des Befehlshabers übereinstimmen müssen, wenn dieser loyal ist. Kurz, der General wählt, indem er alle anderen Befehle als Wahlstimmen behandelt.

-Eine erläuterte Lösung beachtet das Szenario, bei dem Nachrichten gefälscht werden. Solange der Anteil der verräterischen Generäle kleiner als ein Drittel ist, ist diese Lö- sung tolerant gegenüber einem byzantinischen Fehler. Die Unmöglichkeit, mit einem Drittel oder mehr Verrätern umgehen zu können, reduziert das Problem auf den Beweis, dass der Fall mit einem Befehlshaber und zwei Leutnants nicht lösbar ist, wenn der Be- fehlshaber ein Verräter ist.

Wenn es drei Befehlshaber ( A , B , C ) {\displaystyle (A,B,C)} gibt, wobei A {\displaystyle A} der Verräter ist und B {\displaystyle B} von A {\displaystyle A} die Nachricht„Angriff und C {\displaystyle C} von A {\displaystyle A} die Nachricht „Rückzug“ erhält, dann können weder B {\displaystyle B} noch C {\displaystyle C} be- stimmen, wer der Verräter ist, wenn sie sich gegenseitig die Nachricht von A {\displaystyle A} senden. A {\displaystyle A} muss nicht unbedingt der Verräter sein, da ja auch B {\displaystyle B} oder C {\displaystyle C} die Nachricht von A {\displaystyle A} verändert haben kann.

Es kann gezeigt werden, dass, wenn n {\displaystyle n} die Anzahl der Generäle ist und t {\displaystyle t} die Anzahl der Verräter innerhalb von n {\displaystyle n} ist, es nur eine Lösung gibt, wenn n > 3 . t + 1 {\displaystyle n\geq 3\cdot t+1 } ist[2], d. h. dass es bei einem Verräter erst bei vier Generälen eine Lösung gibt, da: n > 3 - l + l => n > 4 (\displaystyle n\geq 3\cdot l+l\Rightarrow n\geq 4} . Bei zwei Verrätern braucht man also bereits mindestens sieben Generäle, da: n > 3 · 2 + 1 => n > 7 {\displaystyle n\geq 3\cdot 2+l\Rightarrow n\geq 7}

-Eine zweite Lösung benötigt nicht fälschbare Signaturen (in modernen Computersy- stemen wird das durch Public-Key-Kryptographie erreicht). Diese erhält Fehlertoleranz bei beliebiger Anzahl verräterischer Generäle. Eine mit dieser Lösung verwandte Im- plementierung ist die Blockchain.

-Eine weitere Lösung ist eine Variation der ersten beiden Lösungen, die Byzantinischer - Fehler-Toleranz erreicht, wenn nicht alle Generäle direkt miteinander kommunizieren können.

115. Funkmodul

Weitere Ausführungsformen für die Erfindung:

Verwendung eines elekronischen Elementes (E) für ein Funkmodul und/oder Verwen- dung eines elekronischen Elementes (E) ein Funkmodul enthaltend. Als Funkmodul wird in der Elektrotechnik eine Baugruppe aus Funkempfänger und/oder -sender bzw. Transceiver sowie der dazugehörigen Komponente zur Ansteue- rung (meist ein Mikrocontroller) bezeichnet. Der Mikrocontroller stellt die Verbindung zwischen Anwenderschnittstelle (analoge oder digitale Werte: serielle oder parallele Daten) und dem Funkprotokoll her, verschlüsselt gegebenenfalls die Daten und sichert die Übertragung (Fehlerffeiheit, richtiger Adressat, keine Manipulierbarkeit oder Stö- rempfindlichkeit) .

Der Hochfrequenzteil des Moduls übernimmt das Mischen, Filtern und Verstärken so- wie die Demodulation bzw. Modulation. Diese Verfahren werden zunehmend digital gelöst. Funkmodule haben oft eine eigene Antenne. Der Anwender eines Funkmoduls muss sich nicht um die Funkübertragung kümmern, insbesondere nicht um die Einhal- tung der nationalen Grenzwerte (Bandbreite, Kanalaufteilung, Sendeleistung), er muss höchstens einen Befehlssatz zur Ansteuerung des Funkmoduls kennen.

Aus einer spezifizierten Kapselung mehrerer Protokolle auf unterschiedlichen Ebenen resultiert eine Funktechnologie wie zum Beispiel Bluetooth, WLAN oder ZigBee. Funkmodule sind oft Steckkarten für eine Mutterplatine. Über die Kontakte erfolgt die Spannungsversorgung sowie die Datenkommunikation. Der Einsatz von Funkmodulen kann so zum einen die Entwicklungskosten von Geräten mit Funktechnologien verrin- gern, zum anderen können unterschiedliche Anwendungen und Regionen bedient wer- den, indem nur das für den jeweiligen Funkstandard notwendige Funkmodul gewechselt bzw. bestückt werden muss. Die Hauptbaugruppe bleibt gleich, was aufgrund größerer Stückzahlen deren Fertigungskosten senkt.Es gibt andererseits auf Funkmodule spezia- lisierte Hersteller, die große Stückzahlen fertigen und so die hohen Entwicklungskosten besser umlegen können.

116. Antennentechnik

Weitere Ausfiihrungsformen für die Erfindung: Verwendung eines elekronischen Elementes (E) für eine Antenne und/oder Antennen- element und/oder Verwendung eines elekronischen Elementes (E) für eine Antenne und/oder Antennenelement enthaltend.

Eine Antenne ist eine technische Anordnung zur Abstrahlung und zum Empfang elek- tromagnetischer Wellen, oft zur drahtlosen Kommunikation. Als Sendeantenne wandelt sie leitungsgebundene elektromagnetische Wellen in Freiraumwellen um, oder umge- kehrt als Empfangsantenne die als Freiraumwelle ankommenden elektromagnetischen Wellen zurück in leitungsgebundene elektromagnetische Wellen. Wesentlich dafür ist die Transformation des Wellenwiderstandes der Leitung durch die Antennenanordnung in den Wellenwiderstand des Vakuums. Dabei entsteht eine elektromagnetische Frei- raumwelle erst im Femfeld. Anordnungen für Frequenzen unterhalb der Schumann- Resonanzen von etwa 16 Hz können aufgrund der großen Wellenlänge auf der Erde keine Freiraumwelle erzeugen.

Die Baugröße liegt in der Größenordnung der halben Wellenlänge, bei kurzen Wellen- längen auch ein Vielfaches und bei sehr langen auch einen Bruchteil davon und reicht von mehreren hundert Metern für den Längstwellenbereich bei unter 10 kHz bis hinab zu Bruchteilen von Millimetern für den Höchstfrequenzbereich bei über 1 THz. Zur Be- einflussung der Richtwirkung werden oft mehrere Einzelantennen zu einer Gruppenan- tenne zusammengeführt.

Antennen aus gestreckten Drähten gehen zurück auf den Physiker Heinrich Hertz, der mit seinen Versuchen die theoretischen Vorhersagen des Physikers James Clerk Max- well aus dem Jahr 1865 überprüfen wollte. Am 11. November 1886 gelang ihm der er- ste experimentelle Nachweis der Übertragung elektromagnetischer Wellen von einem Sender zu einem Empfänger mit Hilfe zweier Hertzscher Dipole. Die verwendete Wel- lenlänge lag mit etwa 2 m im UKW-Bereich. Da es für so hohe Frequenzen zunächst keine Nachweisgeräte gab, wurden die nachfolgenden Versuche von anderen Experi- mentatoren mit elektromagnetischen Wellen durchgeführt, die eine erheblich größere Wellenlänge hatten. Die verwendete Wellenlänge - wahrscheinlich einige 100 m - lässt sich kaum ermitteln, weshalb sich die Frage erübrigt, ob die verwendeten Antennen auf Resonanz abgestimmt waren.

Im Jahre 1893 begann Nikola Tesla Experimente mit verschiedenen einfachen Oszilla- toren wie Funkenstrecken und konnte Ende 1896 zwischen einer Sendestation in New York und einer 30 Kilometer entfernten Empfangsstation auf zwei Megahertz gute Femübertragungsergebnisse erzielen. Am 2. September 1897 meldete er zwei Patente (Nr. 649.621 und 645.576) zur drahtlosen Energieübertragung an.

Guglielmo Marconi stellte am 10. Mai 1897 sein Verfahren der Öffentlichkeit vor und sendete Signale über den Bristolkanal. Im Oktober 1897 betrug die Distanz 15 km. Auf Marconi geht auch der Begriff„Antenne“ zurück, der gegen Anfang des 20. Jahrhun- derts von den meisten europäischen Sprachen übernommen wurde. Als„antenna“ be- zeichnete er indes zunächst nur Funkempfänger (erstmals 1895), erst in späteren Schrif- ten dann auch Sendeanlagen. Das Wort„antenna“ bedeutete ursprünglich„Segelstange“ (Rah), war aber auch als zoologische Bezeichnung für die Fühler von Insekten, Spin- nentieren oder Schnecken in Gebrauch. Das Etymologische Wörterbuch der deutschen Sprache hält daher sowohl eine Ableitung von der Form (Stange) als auch von der Funktion (informationsaufnehmendes Instrument) für möglich.

Der Linguist Jost Trier hat in zwei Fachaufsätzen die These vertreten, dass hier die Analogie zur Zoologie, also zu den mit zahlreichen Rezeptoren ausgestatteten tierischen Fühlern entscheidend war. Mit einer Drachenantenne in 100 m Höhe überbrückte Mar- coni 1901 als erster den Atlantik von Irland nach Neufundland. Marconi erhielt 1909 neben Ferdinand Braun den Nobelpreis in Physik für die Entwicklung der drahtlosen Telegraphie. Nach ihm ist die Marconi-Antenne benannt.

Der Erste Weltkrieg markiert 1914 den eigentlichen Beginn der Antennentechnik. Man benutzte zunächst Rahmenantennen als Empfänger, um 1920 folgten Antennenarrays (s. u.), später Homstrahler und Parabolantennen. Ganz allgemein kann man Antennen als Koppelelemente zwischen geführten und ungeführten elektromagnetischen Wellen, d. h. als Wandler zwischen Leitungs- und Freiraumwellen, auffassen. Quelle ist immer ein elektrischer oder magnetischer Dipol. Durch eine (Raum-)Transformation im Nah- bereich, bei der die Richtungen der Felder (innerhalb der Fortpflanzungsgeschwindig- keit) gedreht werden, entsteht im Fembereich die gelöste Wellenfront einer elektroma- gnetischen Welle.

Fernfeld einer linear polarisierten elektromagnetischen Welle im Vakuum. Die mono- chromatische Welle mit Wellenlänge l {\displaystyle \lambda } breitet sich x-Richtung aus, die elektrische Feldstärke E ® {\displaystyle {\vec {E} } } (in blau) und die magne- tische Flussdichte B ® {\displaystyle (Yvec {B} } } (in rot) sind senkrecht dazu.

Elektromagnetische Wellen bestehen aus polarisierten elektrischen und magnetischen Feldern, die sich durch Kopplung wechselseitig erzeugen und im Vakuum ohne Verlu- ste als Transversalwellen räumhch ausbreiten. Bei vorgegebenen Randbedingungen lie- fern die Maxwellschen Gleichungen eine exakte Beschreibung. In der Praxis berechnet man die Abstrahlung der Energie aber durch Näherungs verfahren.

Eine Antenne erzeugt immer sowohl elektrische als auch magnetische Felder. Die Gra- fik erläutert am Beispiel einer resonanten Dipolantenne, wie aus einem Schwingkreis aus Kondensator und Spule (Start der Animation) durch räumliche Erweiterung (aus- klappen der Stäbe, bzw. Erzeugung der Raumtransformation durch 90°-Drehung des elektrischen Feldes) eine Antenne entsteht: Die Leiterstäbe werden dabei je um ±90° nach außen gedreht und zwischen den Stäben wirken elektrische Felder (blau gezeich- net); längs der Leiterstäbe wirken magnetische Felder (rot als Kreis gezeichnet).

Die Felder breiten sich nicht unendlich schnell, sondern mit Lichtgeschwindigkeit aus und innerhalb dieses sog.„Informationsdurchmessers“ mit v < c sind die Felder über Ursache und Wirkung gekoppelt (Durchmesser der Kugel: l/2). Wird die Antenne reso- nant angeregt, bilden sich geschlossene Feldlinien; das sich ändernde elektrische Feld erzeugt zugehörige magnetische Feldlinien, das sich ändernde magnetische Feld erzeugt zugehörige elektrische Feldlinien. Im Nahbereich der Antenne bildet sich ein Blindfeld, d. h., die Ausbreitung der Felder geschieht von der Quelle weg und wieder zurück. Das sich ausbreitende Feld verliert am Randbereich die Kopplung an die Antenne, wenn sich die Richtung der Feldvektoren umkehrt. Die Felder werden durch die Umkehr ab- gestoßen und können nicht mehr zurück zur Antenne. Eine elektromagnetische Welle wird in den Raum abgestrahlt. Außerhalb des ,Informationsdurchmessers“ (Femfeld) gibt es keine Kopplung an die Antenne mehr, da die Lichtgeschwindigkeit für die Über- tragung von Informationen nicht überschritten werden kann.

Die technische Erzeugung der elektromagnetischen Wellen erfolgt mit einer elektri- schen oder einer magnetischen Feldquelle aus einem speisenden Wechselfeld bzw. Wechselstrom. Dementsprechend gibt es als elementares Grundelement (d. h. Länge < l/10) zur Felderzeugung nur:

-den elektrischen Dipol (Stabform), sowie

-den magnetischen Dipol (Schleifenform).

Schaltungssymbole für Antennenanschlüsse, links zwei für einpolige Langdraht- oder Stabantennen, rechts für zwei Dipolvarianten

Diese werden auch als Grund-Feldelemente bei der numerischen Feldberechnung (Momente-Methode oder Finite-Elemente-Methode) verwendet. Alle anderen Anten- nenformen lassen sich auf diese beiden Grundelemente zurückführen.

Räumlich kann man Antennenformen unterscheiden durch ihre Strahlungslänge in Viel- fachen oder Bruchteilen der Wellenlänge l (griechischer Buchstabe Lambda):

-Länge < l/10 (Annäherung: linear)

-Länge < l/2 (Annäherung: sinus- bzw. bei anderem Bezugspunkt cosinusförmig) -Länge > l/2 (Annäherung mit Wanderwelle, d. h. ohne Reflexionen: konstant, Annähe- rung mit stehender Welle, d. h. mit Reflexionen: nichtlinear)

-Zur ersten Kategorie gehören der Elementarstrahler und die verkürzten Antennen.

-Zur zweiten Kategorie gehört der l/4-Strahler.

-Zur dritten Kategorie ohne Reflexionen bzw. Resonanzen (aperiodische Antennen) ge- hören die meisten Breitbandantennen, die Homantenne, alle abgeschlossenen Antennen (Rhombusantenne), große Wendelantenne u. a. -Zur dritten Kategorie mit Reflexionen bzw. Resonanzen (periodische Antennen) gehö- ren die Yagi-Antennen (mit Reflexionen durch Direktor bzw. Reflektor), die Gruppen- strahler, Backfire-Antenne, die V-Antenne (Rhombusantenne ohne Abschluss), die log- arithmisch-periodische-Antenne, u. a.

Entsprechend der o. a. Grundelemente gibt es:

-Antennen, die primär elektrische Felder erzeugen, d. h., sich in Mini-Stäbe zerlegen lassen z. B. ein elektrischer Dipol, und

-Antennen, die primär magnetische Felder erzeugen, d. h., sich in Mini-Schleifen zerle- gen lassen, z. B. eine Leiterschleife (magnetischer Dipol).

Im Nahfeld sind jedoch zwischen beiden Antennentypen die Felder reziprok vertausch- bar (Babinetsches Prinzip):

-D. h., bei einem elektrischen Dipol verhält sich sein elektrisches Feld wie das magneti- sche Feld von einem magnetischen Dipol

-und umgekehrt bei einem magnetischen Dipol verhält sich dessen elektrisches Feld wie das magnetische Feld eines elektrischen Dipols (Felder vertauscht).

Im Nahfeld ist noch Blindleistung im Raum gespeichert. Im Femfeld haben sich elektri- sches und magnetisches Feld miteinander verkoppelt (Verhältnis E/H = Z0), d. h., es ist dort nicht mehr rückfuhrbar (bzw. unterscheidbar), ob die Feldquelle elektrisch oder magnetisch war und Wirkleistung wandert mit der Welle.

Grundsätzlich wird nach Erzeugung des Wechselstroms im Sender die Sendeleistung über eine Speiseleitung an das Antennengebilde abgegeben. Auf der einen Seite wird durch die Vorgabe der Leitungsimpedanz (E/Ή-Verhältnis der Leitung ist typisch ca. 50 W) die Sendeendstufe optimiert, d. h., die Ausgangsimpedanz der Sendeendstufe wird, technisch daraus folgend, auf 50 W eingestellt (Leitungsanpassung: Leitung hat 50 W ® Ausgangsstufe bekommt 50 W, technisch kein Problem). Auf der anderen Sei- te, bei den reinen Antennen sind die Werte (ohne Leitungswandler) ja in etwa physika- lisch vorgegeben. So wird ein l/4-Strahler immer etwa 36 W als E/H-Verhältnis haben. Die Wirkung einer Antenne, d. h. auch der Wirkungsgrad des gesamten Systems, hängt allerdings direkt von der Einspeisung des Leitungsstromes in das Antennengebilde ab (Einspeisestelle).

Folglich versucht man dort anzusetzen und den Blindwiderstandsanteil möglichst auf null zu reduzieren (Resonanz) und den Strahlungswiderstand des Antennengebildes möglichst hoch zu machen (hoher Strahlungswiderstand ® hohe Raumkopplung). Wenn das Anpassverhältnis sehr von 1 abweicht, werden Leitungstransformatoren zur Anpassung eingesetzt, welche immer einige wenige Ohm (Wirbelstrom -)Zusatzverluste haben. Beispiel: Kabelimpedanz: Z = 50 W, Leitungstransformator: Rv = 2 W (Wir- belstromverluste)

Antennen, die deutlich kürzer sind als ein Zehntel der Wellenlänge, haben zwar theore- tisch dieselbe Feldankopplung an den Raum wie die längeren Antennen mit l/2, nur praktisch sind bei ersteren die Verluste größer.

Als Bezugspunkt gilt der Feldwellenwiderstand im freien Raum von etwa 377 W. Feld- quellen mit höherer Impedanz haben ein überwiegend kapazitives Feld und bilden elek- trische Antennen, Feldquellen mit niedrigerer Impedanz haben ein überwiegend induk- tives Feld und bilden reziprok-magnetische Antennen. Das Verhältnis der Raumimpe- danz zu den 377 W bestimmt den Anteil des reziproken Feldes, d. h., eine Feldquelle mit 37,7 W hat zu 90 % ein elektrisches Feld und zu 10 % ein magnetisches Feld (elek- tromagnetische Kopplung, E-Feld neunmal so groß wie H-Feld).

Dementsprechend empfängt sie zu 90 % elektrische Felder. Im Femfeld sind alle An- tennen gleich, weil E- und H-Feld nun wirklich senkrecht zueinander stehen und sich dadurch dort die Feldquellen-Impedanz an den Feldwellenwiderstand angepasst hat. Im Nahbereich muss jede Antenne frequenzselektiv sein, da sie als elektrische bzw. ma- gnetische Quelle mit dem Raum einen Resonanzkörper bildet und ein Vektorfeld (Grö- ßenordnung eine halbe Wellenlänge) aufbaut. Dieses Vektorfeld spannt sich im Fem- feld zum Poynting-Vektor auf, welches sich dort als elektromagnetische Welle koppelt und nun ein Leistungsfeld bildet, bei dem elektrisches und magnetisches Feld phasen- gleich sind mit dem Amplitudenverhältnis E/H = 377 W.

Reziprozität oder Umkehrbarkeit ist gegeben, wenn in einer Anordnung Ursache und Wirkung miteinander vertauscht werden können, ohne dass sich die charakteristischen Verhältnisse ändern. Antennen sind theoretisch reziprok, können also mit gleichen cha- rakteristischen Eigenschaften sowohl zum Senden als auch zum Empfangen verwendet werden. Das bedeutet, dass einige typische Begriffe für Sendeantennen, 2mm Beispiel die„Ausleuchtung“ oder der„Überstrahlungsfaktor“ von Reflektoren, auch für reine Empfangsantennen genutzt werden können, da sie für den Empfangsfall einen ver- gleichbaren Einfluss haben (wie in diesem Beispiel auf die effektive Antennen wirkflä- che der Antenne). So wird das aktive Element einer Antenne unabhängig davon, ob es als Sendeantenne oder Empfangsantenne genutzt wird,„Strahler“ genannt.

In der Praxis ist die Sendeleistung einer Antenne begrenzt durch den Proximity-Effekt (Extremfall: Funkenüberschläge) sowie durch Nichtlinearitäten der Hilfselemente (Fer- rite, Schwingkreise). Manche Antennen vertragen nur kleine oder überhaupt keine Sen- deleistung (beispielsweise aktive Empfangsantennen). Optimierte Empfangsantennen mit Verstärker werden generell anders angepasst als Sendeantennen. Im Zusammen- hang mit breitbandigen Signalen (UWB) ist zu beachten, dass Reziprozität nicht bedeu- tet, dass ein Empfänger mit einer gleichartigen (Breitband) -Antenne wie der Sender ei- ne getreue Kopie des Sendesignals gewinnt.

In der Praxis gilt die Reziprozität nur begrenzt. Eine Antenne, die für den Empfang ausgelegt ist, wird evtl beschädigt, wenn sie die hohen elektrischen Leistungen einer Sendeanlage abstrahlen soll. Als Sendeantennen sind auch solche Empfangsantennen ungeeignet, deren nichtlineare Elemente wie beispielsweise Ferrite nicht entsprechend ausgelegt sind. Der Reziprozität widerspricht scheinbar, dass unterhalb von etwa 30 MHz der Wir- kungsgrad der Empfangsantenne weniger wichtig ist als der der Sendeantenne. Ursache sind die Rauschtemperatur der Atmosphäre und Störungen durch elektrische Geräte und Gewitter. Diese dominieren auf niedrigen Frequenzen auch bei Empfangsantennen mit sehr schlechtem Wirkungsgrad das Eigemauschen des Verstärkers. Vorteile bieten gro- ße Empfangsantennen auf Grund ihrer Richtwirkung, mit der sie Störungen aus anderen Richtungen ausblenden. Ein typisches Beispiel für eine reine Empfangsantenne mit sehr schlechtem Wirkungsgrad ist die Beverage-Antenne. Antennenparameter: Antennen werden durch verschiedene Parameter und Begriffe cha- rakterisiert. Einige der Begriffe entstehen aus der Theorie durch Vereinfachungen. Folgende Vereinfachungen sind üblich:

-quasioptische Verhältnisse (Femfeld: Transversalwellen)

-linearer Stromverlauf (Länge < l/10) oder

-sinusförmiger Stromverlauf (Länge: Vielfaches von l/4 bzw. l/2)

-nichtlinearer Stromverlauf (Reflexionsstellen mit Phasenverschiebungen: Länge > l/4). Wenn Reflexionsstellen mit Phasenverschiebungen entstehen (Länge > l/4) werden analytische Berechnungen meist zu kompliziert und stattdessen werden Kennwerte durch Simulation (Finite-Elemente-Modelle) bestimmt und durch Messung verifiziert. (Verkürzungsfaktor, Strahlungswiderstand, Bandbreite, Nah- bzw. Fembereich).

Antennenparameter :

-Absorptionsfläche (Wirkfläche)

-Antennengewinn

-Antennenfaktor

-Apertur

-Bandbreite

-Impedanz (Fußpunktwiderstand)

-Nebenkeulendämpfung

-Öffhungswinkel

-Polarisation -Richtfaktor

-Strahlungswiderstand

-Vor-Seiten-Verhältnis

-Vor-Rück -Verhältnis

-Wirkungsgrad

Antennen strahlen polarisierte Wellen ab. Als Polarisationsebene wurde die Richtung des elektrischen Feldvektors gewählt. So schwingt bei vertikaler Polarisation der elek- trische Feldvektor zwischen oben und unten, bei horizontaler Polarisation zwischen links und rechts. Empfangs- und Sendeantenne sollen in ihrer Polarisation überein- stimmen, andernfalls wird die Signalübertragung stark gedämpft.

Das kann mit zirkular polarisierter Strahlung umgangen werden: Änderungen der Pola- risationsebene wie bei rotierenden Satelliten werden dadurch vermieden, da der elektri- sche Feldvektor nicht in einer Ebene schwingt, sondern rotiert. Zirkular polarisierte Signale kehren ihre Drehrichtung allerdings bei Reflexion um. Man erzeugt sie z. B. mit Kreuzdipolen, wobei horizontal und vertikal polarisierte Wellen gleicher Phasenlage überlagert werden. Bei 90° Phasenverschiebung zwischen der horizontal und der verti- kal polarisierten Welle spricht man von zirkularer Polarisation. Je nach Phasenfolge spricht man von rechtszirkularer oder linkszirkularer Polarisation. Sind die beiden Komponenten unterschiedlich stark, entsteht eine elliptische Polarisation.

Eine verbreitete Antenne zur Erzeugung zirkular polarisierter Wellen ist die Wendelan- tenne. Wenn bei Resonanz der Blindwiderstand jX einer Antenne verschwindet, ist der Fußpunktwiderstand (oder Eingangswiderstand) einer Antenne reellwertig und ergibt sich rechnerisch aus der zugeführten Leistung P und dem Strom I, der an den An- schlussklemmen gemessen werden kann. Meist wird er zerlegt in die Summe aus Ver- lustwiderstand und Strahlungswiderstand. R Fußpunkt = P 1 2 = R Strahlung + R Ver- lust {\displaystyleR_{\text{ Fußpunkt} }={\frac{P} {I L {2} } }=R_{\text{Strahlung} }+R_{ \text { Verlust }}\} Der Verlustwiderstand enthält Beiträge wie den ohmschen Widerstand der Leitungs- drähte, zusätzlich den Skin-Effekt des Leiters, Verluste im Anpassnetzwerk und bei ei- ner unsymmetrischen Antenne (wie der Groundplane-Antenne) den Erdungswiderstand (zusammengefasste Verluste der spiegelnden Antennenebene).

Nach Art der verwendeten Kabel nutzt man Antennen mit möglichst passendem Fuß- punktwiderstand. Daher gilt:

-In der Unterhaltungselektronik (z. B. für den terrestrischen Fernsehempfang) sind die Antennen für eine Impedanz von 75 W ausgelegt.

-Antennen für mobile Funkgeräte haben Fußpunktwiderstände von ca. 50 W und niedri- ger. Die Impedanzen von Sendern haben dort 50 W.

-Der Fußpunktwiderstand eines endgespeisten Dipols liegt bei 2200 W.

Um den Fußpunktwiderstand der Antenne auf die Impedanz des Kabels anzupassen und so das Stehwellenverhältnis möglichst nahe bei dem Wert 1 zu halten, werden Impe- danzwandler oder Resonanztransformatoren eingesetzt.

Der Strahlungswiderstand R s {\displaystyle R_{\mathrm {s} } } einer Antenne ist eine Größe, die den Zusammenhang zwischen dem Antennenstrom I an den Anschluss- klemmen und der abgestrahlten Leistung P ~ {\displaystyle (\overline {P} } } be- schreibt.R s = P ~ I 2 {\displaystyle R_{\mathrm {s} }={\frac {\overline {P} } {I L {2}} }\,} Der Strahlungswiderstand ist die wichtigste Kenngröße einer Anten- ne, da er direkt proportional der Strahlungslei stung ist, d. h. der Größe, welche beim Abstrahlen genutzt wird. Als Strahlungswiderstand bezeichnet man den Anteil, der im Raum, d. h. zwischen den Leitungen, den Wirbelstrom induziert (in Luft bzw. Vaku- um). Gleichzeitig werden im elektrischen Leiter Wirbelströme induziert (sog. Skin- Effekt, mit wesentlich geringerem Wirbeldurchmesser). Der Wirbelstrom (mit Poyn- ting-Vektor) außerhalb des Leiters (Strahlungswiderstand) und der innerhalb des Leiters (Skin-Effekt), sind verwandt, allerdings bringt für die Raumabstrahlung nur der Strah- lungswiderstand im Vakuum bzw. in der Luft (keine Verluste) einen Nutzen. Der Strah- lungswiderstand muss somit immer geringer als der Fußpunktwiderstand sein (andere Summenwiderstände) und kann in Sonderfällen theoretisch berechnet werden. Ein l/2- Dipol, der nicht durch seine Umgebung beeinflusst wird, hat auf seiner Resonanzfre- quenz eine Impedanz von 73,2 W. Eine Groundplane mit unendlich ausgedehnter, ideal leitender Erdungsebene hat halb so viel, also 36,6 W. Bei einer stark kapazitiv belaste- ten T-Antenne liegt er bei weniger als 20 W.

Bei exakter Anpassung sollte im Idealfall die einer Antenne zugefuhrte Energie auch vollständig abgestrahlt werden. Dieser Idealfall wird nie erreicht: Ein Teil der zugeführ- ten Energie wird als Verlustleistung in Wärme umgewandelt. Das Verhältnis von abge- strahlter Leistung zur zugeführten Wirkleistung wird als Wirkungsgrad einer Antenne h A {\displaystyle \eta _{Vmathrm {A} }} bezeichnet: h A = Nutzleistung Nutzleistung + Verlustleistung{\displaystyle\eta_{\mathrm { A} }

={\frac {\text{Nutzleistung}} {\text{Nutzleistung + Verlustleistung} } } }

Da die Leistungen bei konstantem Speisestrom proportional zu den entsprechenden Wi- derständen gesetzt werden können, kann für den Resonanzfall folgende Beziehung ge- setzt werden: h A = Strahlungswiderstand Strahlungswiderstand + Verlustwiderstand = R S R S + R V {\displaystyle \eta _{\mathrm {A} }={\frac (\text{ Strahlungswiderstand} } (\text{Strahlungswiderstand + Verlustwider- stand} } }={\ffac {R_{\mathrm {S} } } (R_{\mathrm {S} }+R_{\mathrm {V} } } } }

Nicht abgestimmte Langdrahtantennen erreichen selten mehr als 1 % Wirkungsgrad. Die Parabolantenne liegt meistens über 50 %, der Homstrahler bei 80 % und mehr.

Der Wirkungsgrad hängt auch davon ab, wie ungestört sich das Femfeld ausbilden kann:

-Frequenzen über 30 MHz strahlen meist in den Freiraum und die entstehenden Wellen sind i. A. weit genug vom Erdboden entfernt, um sich als Abstrahlung davon zu lösen. Die Kugelwelle von horizontalen- und vertikalen Antennen dringt kaum in den Erdbo- den ein und wird durch Erdverluste wenig reduziert. Die Ausbreitungsbedingungen der Welle sind dann quasioptisch.

-Frequenzen unter 30 MHz erzeugen Kugelwellen mit großer Wellenlänge, was zu im- mensen Antennenkonstruktionen führt. Die Erdverluste nehmen zu niedrigen Frequen- zen immer mehr zu, der Wirkungsgrad der Antennen nimmt immer mehr ab, es werden immer höhere Sendeleistungen benötigt, um die Verluste auszugleichen. Hier gelten nicht die optischen Gesetze. Leitende Gebilde im Nahbereich der Antenne (geerdete Starkstromleitungen, Blitzschutzgerippe in Gebäuden) sind schwer zu vermeiden und absorbieren Energie. Horizontale Antennen haben bei gleichem Abstand vom Erdboden wie Vertikalantennen größere Erdverluste. Um bei 5 MHz mit einer üblichen Antenne dieselbe Strahlungsleistung zu erzeugen wie bei 50 MHz, braucht man ein Vielfaches der Sendeleistung. Vertikale Antennen brauchen ein gut leitendes Erdnetz, um effektiv abzustrahlen, deshalb befinden sich Langwellensender an Flussläufen und Mooren. Bei horizontalen Antennen mit geringem Erdabstand (h < 3/4 l) wird der Strahlungswider- stand durch Wirbelströme des Erdbereichs reduziert. Es wird mehr Einspeiseleistung als bei Vertikalantennen benötigt (bei gleicher Leistung in der Kugel). Der Wirkungsgrad (das Verhältnis von abgestrahlter zu eingespeister Leistung) ist bei vertikalen Antennen besser. Die horizontal eingespeiste Welle löst sich aber besser vom Erdboden (je weiter vom Erdboden, desto besser). Größere Reichweiten werden mit horizontalen Antennen erreicht.

Keine Antenne strahlt gleichmäßig in alle Richtungen. Der Richtfaktor D ist das Ver- hältnis der in Vorzugsrichtung gemessenen Strahlungsintensität zum Mittelwert über al- le Richtungen. D = 1 entspricht dem als Bezugsantenne verwendeten nicht realisierba- ren Isotropstrahler. Der Antennengewinn G verwendet im Nenner statt der mittleren Strahlungsintensität die gespeiste Sendeleistung geteilt durch den vollen Raumwinkel (4 p). Er berücksichtigt also zusätzlich noch den Wirkungsgrad der Antenne: G = h A · D {\displaystyle G=\eta _{\mathrm {A} }\cdot D} Da es einfacher ist, die eingespeiste Energie zu messen, als in allen Richtungen die Strahlungsintensität, wird meist nur der Antennengewinn gemessen und in den Datenblättern kommerzieller Antennen genannt. Beide Größen sind relative Zahlenangaben und werden meist in Dezibel angegeben. Weil aber unterschiedliche Vergleichsantennen zugrunde liegen können, wird der An- tennengewinn entweder in dBd (Bezug: Dipolantenne) oder dBi (Bezug: Isotropstrah- ler) angegeben. Das Antennendiagramm einer Antenne stellt die Winkelabhängigkeit der Abstrahlung bzw. der Empfangsempfindlichkeit für eine bestimmte Frequenz und Polarisation gra- fisch dar. Eine verallgemeinerte Form des Antennendiagramms wird auch als Richtcha- rakteristik bezeichnet. Die in der Praxis gemessenen stark ausgefransten und zerklüfte- ten Antennendiagramme werden hier einer geometrischen oder theoretisch berechneten Grundform an genähert (z. B. eine Achtercharakteristik für den Dipol oder die Cose- cans 2 -Charakteristik einer Radarantenne).

Eine Empfangsantenne entnimmt einer ebenen Welle Energie. Die Strahlungsdichte der Welle ist eine Leistung pro Flächeneinheit. Der empfangenen Leistung kann eine Flä- che zugeordnet werden, die effektive Absorptionsfläche AW oder Wirkfläche. Für ei- nen Aperturstrahler (s. u.) ist die Wirkfläche typischerweise etwas kleiner als die geo- metrische Fläche A. So beträgt (bei 100 % Wirkungsgrad, s. o.) die Wirkfläche eines rechteckigen Homstrahlers mit den Abmessungen a und b A W = 8 a b n 2 = 0 , 81 a b . (\displaystyle A_{\mathrm {W} }={\frac (8ab} { {\pi } L {2} } }\approx 0{,}81ab.}

Die Absorptionsfläche eines l/2 -Dipols beträgt A W = l 2 7 , 7 . {\displaystyle A_{\mathrm {W} }\approx {\ffac {\lambda L {2} } {7,7} } .} Die Wirkfläche ist per de- finitionem proportional zum Gewinn G: A W G = 2 4 n {\displaystyle {\frac {A_{\mathrm {W} }} {G} }={\ffac {\lambda L {2} } {4\pi } } }

Der Antennenfaktor AF einer (als Empfangsantenne verwendeten) Antenne ist das (grundsätzlich frequenzabhängige) Verhältnis der elektrischen Feldstärke E der einfal- lenden Welle zur Ausgangsspannung U der Antenne: A F = | E | | U | {\displaystyle \mathrm {AF} ={\frac {|E|} {|U|} }} und wird auch als Wandlungsmaß oder Umwand- lungsmaß bezeichnet. Er entspricht dem Kehrwert der (effektiven) Antennenlänge bzw. -höhe, hat die Einheit 1/m und ist eng verknüpft mit der Absorptionsfläche (Wirkflä- che). Üblicherweise wird der Antennenfaktor logarithmiert in dB angegeben.

Im Nahbereich erzeugt der elektrische oder magnetische Dipol eine Feldverteilung, bei der ein Großteil der Energie immer wieder in die Antenne zurückfällt. Ab einem be- stimmten Abstand schnürt sich die Feldverteilung ab und eine elektromagnetische Wel- le breitet sich räumlich aus. Dieser Bereich ist als Femfeld definiert. Eine scharfe Ab- grenzung gegen den Nahbereich ist nicht möglich. Eine Voraussetzung für die sich selbstständig fortbewegende Welle ist, dass die Phasenverschiebung zwischen elektri- schem und magnetischen Feld verschwindet, während sie in Antennennähe 90° beträgt. Über die Phase lassen sich dadurch Nahbereich, Fembereich und Übergangsbereich de- finieren.

Grundsätzlich muss unterschieden werden zwischen:

-resonanten Schmalbandantennen und

-nicht resonanten Breitbandantennen.

Die (Einspeise-) Bandbreite einer resonanten (Schmalband-) Antenne hängt von ihrem Belastungswiderstand ab, d. h., bei ±45° Phasenverschiebung sinkt die Güte (steigt die Dämpfung) des gesamten resonanzfahigen Gebildes. Je kleiner der Lastwiderstand, de- sto größer die Bandbreite, meist auf Kosten des Wirkungsgrades. Bei aktiven (Emp- fangs-)Antennen (mit FET-Eingangsstufe) kann der Lastwiderstand viel größer ausge- legt werden, um dadurch die Bandbreite des Systems zu vergrößern.

Bei nicht resonanten Breitbandantennen (Resonanz erst außerhalb ihres Nutzfrequenz- bereiches) werden Reflexionen vermieden und die eingespeiste Welle (siehe B. mit 50 W Leitungsimpedanz) durch Aufweitung der Speiseleitung langsam an den Feldwel- lenwiderstand (377 W) angepasst. Die Grenzen des Frequenzbereiches werden dabei durch die Halbwertsbreite bestimmt. Das ist der Bereich, in dem die abgestrahlte Ener- gie vom Maximalpunkt aus halbiert wird (-3 dB). Echte Breitbandantennen sind nicht resonant und durch besondere konstruktive Maßnahmen bleiben ihre elektrischen Ei- genschaften in einem weiten Frequenzbereich nahezu konstant (Beispiele sind bikoni- sche Antennen, Spiralantennen und LPA). Bei der logarithmisch-periodische Antenne (LPA) wäre der Einzelstrahler zwar resonant, durch das Zusammenwirken mit den Nachbarelementen entsteht jedoch die Breitbandigkeit.

Höhe der Antenne über Grund (nicht zu verwechseln mit der effektiven Antennenhöhe) Die Höhe der Antenne über Grund bestimmt die Ablöseeigenschaften der Kugelwelle (l/2-Strahler im Bsp. für Höhenangaben vorausgesetzt) vom Erdboden. Die Höhe spielt ab > 2 l praktisch keine Rolle mehr (s. u.). Generierte Kugelwellen (l/2 -Strahler) er- zeugen hemmende Gegenfelder (Strom erzeugt Gegenstrom, verschlechternder Strah- lungswiderstand) für einen Bereich l/2 unter ihnen (insgesamt l, negatives Spiegelfeld, Erdfelder). Darunter (2 l) entsteht ein förderndes Spiegelbild (2 l), d. h. mit fördernder, gleichgerichteter Phase (erhöhender Strahlungswiderstand). Die Höhe der Antenne über Grund ist für die Abstrahlungseigenschaften von Bedeutung, besonders bei Frequenzen < 30 MHz. Im Bereich bis 300 MHz muss sie beachtet werden (h < 2 l). Ab 300 MHz aufwärts spielt sie praktisch keine Rolle.

Die Baugröße einer Antenne muss immer in Relation zur halben Wellenlänge betrachtet werden. Ist eine Antenne deutlich kleiner als ein Viertel der Wellenlänge, wird ihr Strahlungswiderstand sehr klein, weshalb ihr Wirkungsgrad gering wird. Je größer eine Antenne im Vergleich zur halben Wellenlänge wird, umso komplexer wird ihr Strah- lungsdiagramm, weil Mehrfachreflexionen entstehen und sich überlagern. Die größten Antennen wurden Ende des 19. und Anfang des 20. Jahrhunderts gebaut, als für Funk- Weitverbindungen ausschließlich Langwellensender benutzt wurden.

Beispiele von Antennen:

-Bezugsantennen

-lineare Antennen

-Flächenantennen

-Reflektorantennen

-Gruppenantennen

-magnetische Antennen Die Gliederung von Antennenbauformen kann nach vielen Eigenschaften kategorisiert werden. Meist wird sie nach der Geometrie der Antenne vorgenommen, kann aber auch andere Kriterien (z. B. Bandbreite, Richtcharakteristik, Betriebsfrequenz) erfassen. Der Punktstrahler hat nur eine theoretische Bedeutung als Bezugsantenne zur einfacheren mathematischen Berechnung. Elektromagnetische Wellen sind Transversalwellen und benötigen wegen der Polarität als Feldquellen daher Dipole (elektrische oder magneti- sche).

-Sind die Dimensionen der Antennenkonstruktionen klein im Vergleich zur halben Wel- lenlänge, verhält sich die Antennenstromverteilung vereinfacht linear.

-Sind die Dimensionen der Antennenkonstruktionen groß im Vergleich zur halben Wel- lenlänge, wird die Antennenstromverteilung nichtlinear, es entstehen Moden, und die Antennen werden als Flächenantennen bezeichnet.

Andere Unterteilung von Antennen:

-Linearstrahler (s. u.) (lineare Antennen)

-Flächenstrahler (s. u.) (Flächenantennen):

-Aperturstrahler (s. u.)

-Reflektorantennen

-Gruppenantennen (s. u.) bestehen aus vielen zusammengeschalteten gleichartigen An- tennen.

Nach Anwendung bzw. Montageart können Antennen auch unterschieden werden in: -Stationsantennen (fest an einem Ort, oft auf einem Mast)

-Mobilantennen (Betrieb in Fahrzeugen, Schiffen oder Flugzeugen)

Antennen für tragbare Geräte (Handfunkgeräte, Funktelefone, Mobiltelefone, Smart- phones).

Der Begriff lineare Antennen bezeichnet Antennen, die eine linienhafte Stromverteilung in der Antennenstruktur aufweisen. In Praxis wird die Linie, diese muss nicht geradlinig verlaufen, als ein gegenüber der Wellenlänge dünner elektrischer Leiter aus einem me- tallischen Draht oder aus einem metallischen Stab gebildet. Zu den linearen Antennen gehören alle Formen von Langdrahtantennen sowie Dipolantennen und auch Faltdipole. Die lineare Antenne ist eine der gebräuchlichsten Strahlerformen. Sie wird beispiels- weise als Sendemast in Rundfunksendern im Lang- und Mittelwellenbereich, als Drahtantenne im Kurzwellenrundfunk und auf Kurzwelle im Amateurfunk und Schiffs- funk, und als l/2-Dipol als Strahler in Yagiantennen im VHF- bis UHF-Bereich sowie als l/4-Dipol in Stabantennen für Kurzwelle bis jenseits des UHF-Bereiches (Funkdien- ste, Funktelefone, CB-Funk usw.) eingesetzt. Der Strom entlang der Antennenstäbe bzw. -drähte ist bei Längen unter l/5 nahezu linear, bei Längen darüber sinusförmig verteilt. Es treten an den Enden (und bei längeren Antennen in Abständen der halben Wellenlänge) Stromknoten I _ = 0 {\displaystyle {\underline {I}}=0} und Spannungs- bäuche auf.

Die sinusförmige Stromverteilung auf Dipolantennen-Stäben wird zwar experimentell gut bestätigt, kann aber zur Berechnung des Eingangswiderstandes einer Antenne nicht herangezogen werden, da Strom und Spannung zeitlich nicht ganz um 90° phasenver- schoben sind. Die Impedanz einer Antenne am Speisepunkt sollte jedoch keinen Blind- widerstandsanteil aufweisen, sie ist im Idealfall der äquivalente Serien- oder Parallel- widerstand, der durch die abgestrahlte Wirkleistung und - in geringem Maße - durch die Antennenverluste entsteht. Die Fußpunktimpedanz einer Antenne ist also ein rein ohmscher Widerstand, er sollte gleich der Leitungsimpedanz (Wellenwiderstand) der speisenden Leitung sein. Weicht die Antennen -Fußpunktimpedanz in ihrem Real- oder Imaginärteil davon ab, müssen Anpassglieder (Spulen, Baluns, p-Glieder, Anpassüber- trager) eingesetzt werden.

Bei linearen Antennen ist die Länge im Verhältnis zur Wellenlänge l maßgeblich. Die Verteilung der Strommaxima entlang der Strahler -Elemente einer symmetrischen, ge- streckten Antenne ist ebenfalls symmetrisch und feststehend. Ist ohne Längenangabe von einer Dipolantenne die Rede, so ist meist ein Halbwellendipol gemeint. Seine Län- ge ist die Hälfte der Wellenlänge l. Er wird symmetrisch gespeist hn Speisepunkt ist er aufgetrennt; dort liegen ein Strommaximum und ein Spannungsminimum, die Impedanz beträgt 73,2 W.

Ein Faltdipol entsteht, indem der Stromweg eines Halbwellendipols auf zwei Wege aufgeteilt wird. In nur einem dieser Wege ist er aufgetrennt, dort liegt der Speisepunkt. Durch die induktive bzw. kapazitive Kopplung an den ungespeisten Stab halbiert sich der Speisestrom bei verdoppelter Speisespannung. Durch diese Impedanztransformation (auf jeder Seite ein l/4-Transformator) vervierfacht sich beim Faltdipol die Impedanz des Speisepunktes auf etwa 240-300 Ohm. Der Vorteil des Faltdipols ist dessen mögli- che geerdete Befestigung am Antennenträger sowie früher die Verwendbarkeit preis- werter symmetrischer Speiseleitungen, der sogenannten Bandleitung.

Eine breitbandigere Form ist der Flächendipol, auch er zählt zu den linearen Antennen. In Fällen, bei denen eine Richtwirkung nicht erwünscht ist, z. B. bei angestrebtem Rundum-Empfang oder -Senden, kann ein Knickdipol eingesetzt werden, bei dem die beiden Strahlerhälften im Winkel von 90° zueinander angeordnet sind. Alternativ wer- den die Strahlerhälften auch halbkreisförmig gebogen. Diese Bauform wird als Ring- dipol bezeichnet.

Der Viertelwellenstrahler, auch als Monopolantenne oder Groundplane-Antenne be- zeichnet, ergibt gespiegelt einen Halbwellendipol, wobei nur ein Zweig des Halbwel- lendipols als Antennenstab benötigt wird. Durch eine gut elektrisch leitfähige Oberflä- che oder durch mehrere abstehende Stäbe im Antennenfußpunkt entsteht durch Indukti- onsströme eine (elektrisch messbare) Spiegelung des Antennenstabes. Je besser die Leitfähigkeit der Spiegelfläche, desto besser wird ein„Gegengewicht“ zum Strahler ge- neriert. Bei einem Handfunkgerät mit elektrischen Strahler wirkt der Körper des Benut- zers mit seiner (wirksamen, doch nicht optimalen) Leitfähigkeit als Gegengewicht, bei KFZ-Antennen die gut leitende Karosserie und bei Funktelefonen und vielen Funkfern- steuerungen die Leiterplatte bzw. das Gehäuse.

Verwendet wird der Viertelwellendipol als Antenne für Handfunkgeräte und andere mobile Geräte z. B. in Kraftfahrzeugen. Er ist der kleinste optimale elektrische Strahler, falls eine gute Spiegelfläche existiert. Kleinere Strahler erkaufen sich die Kleinheit mit höheren Verlusten in den Verkürzungselementen und bilden immer einen Kompromiss. Als„Teleskopantenne“ ist der Viertelwellendipol in mehrere kleinere Abschnitte unter- teilt, die stufenförmig verjüngt teleskopartig ineinandergeschoben werden können. Das ergibt ein kleineres und somit besser transportfähiges (im nichtaktiven Zustand) Format für eine Empfangsantenne. Alle diese Abschnitte müssen sehr guten elektrischen Kon- takt untereinander haben. Verwendet wird eine solche Teleskopantenne oft bei kleinen Taschenradios und tragbaren Funkgeräten. Eine Teleskopantenne kann durch Beschal- tung des Fußpunktes mit einer zusätzlichen Induktivität elektrisch verkürzt werden und ist nur effektiv angepasst, wenn sie in voller Länge ausgezogen ist.

Setzt man zwei gleichphasig schwingende Halbwellendipole gestreckt aneinander, ent- steht ein sogenannter Ganzwellendipol. Am Speisepunkt in der Mitte liegen ein Strom- knoten und gegenphasige Spannungsmaxima, so dass die Impedanz hoch ist (> 1 kG). Wie beim Viertelwellendipol halbiert sich die Impedanz, wenn die untere Hälfte durch das Spiegelbild der oberen an einer leitenden Fläche gebildet wird. Eine gängige An- tennenimpedanz von 240 W bildet sich ebenfalls durch Parallelschaltung von vier Ganzwellenstrahlem in einer Gruppenantenne.

Ist eine lineare elektrische Antenne kürzer als l/4, hat die Fußpunktimpedanz eine ka- pazitive Komponente, die zur Anpassung kompensiert werden muss. Das kann durch Einfügen einer Serien-Induktivität (Verlängerungsspule) nahe beim Speisepunkt, eine zur Speisung parallel geschaltete Spule oder eine Dachkapazität am Antennenende er- folgen. Konstruktionen mit Verlängerungsspule erreichen eine bessere Stromverteilung und erzeugen einen besseren Wirkungsgrad als solche mit Dachkapazität. Eine typische Antenne mit Dachkapazität ist die T-Antenne.

Beispiele für Antennen mit Verlängerungsspulen sind die sogenannten Gummiwurst- Antennen an Handfunkgeräten, CB-Funk-Antennen mit Längen < 3 m und fast alle An- tennen in Funkfernsteuerungen unterhalb des 433-MHz-ISM-Bandes (l/4 = 18 cm). Unterhalb von etwa 100 MHz ist der Wirkungsgrad einer Antenne nur für Sender wirk- lich wichtig. Bei reinen Empfangsantennen ist die entscheidende Frage, ob das gesamte Empfangssystem einen ausreichenden Signal-Stör-Abstand erreicht. Bei Antennen ohne starke Richtwirkung dominieren Umgebungsstörungen und das sogenannte atmosphäri- sche Rauschen, nicht aber das Rauschen der Empfänger-Eingangsstufen. In diesem Fall sinken mit dem Wirkungsgrad sowohl das Signal als auch der Störpegel, das Verhältnis bleibt gleich. Im Mittelwellenbereich sind elektrische Empfangsantennen und ihre Antennenkabel klein gegen die Wellenlänge. Ihre Impedanz am Speisepunkt ist deshalb nahezu kapazi- tiv. Deshalb verwendete man früher bei hochwertigen Empfängern - vor allem bei Au- toradios - diese Kapazität als Kondensator des Eingangskreises. Die Abstimmung er- folgte dabei mit der veränderlichen Induktivität (Variometer) dieses Kreises.

Heute sind die üblichen Autoradio- Antennen in aller Regel aktive Antennen, d. h., sie bestehen aus einem kurzen Stab und einem Verstärker mit hochohmigem, kapazitätsar- mem Eingang. Die früher üblichen ausziehbaren Antennen sind in Neufahrzeugen kaum noch zu finden. Im Prinzip reicht als Verstärker ein Impedanzwandler wie ein als Sourcefolger beschalteter Feldeffekttransistor. Da eine solche Antenne aber sehr breit- bandig ist, muss man das Großsignalverhalten mit erhöhtem Aufwand verbessern. Bei einer Langdrahtantenne übersteigt die Drahtlänge die halbe Wellenlänge l wesentlich. Die unter diesem Begriff zusammengefassten Antennenbauformen sind alle horizontal polarisiert und unterscheiden sich hauptsächlich durch die Art der Speisung und die Form der Verlegung des Strahlers. Mit zunehmender Länge nähert sich die Hauptstrahl- richtung der Antennenlängsrichtung symmetrisch an. Wird das von der Speisung ent- ferntere Leiterende mit einem Abschlusswiderstand gegen Erde versehen, dann kann sich auf der Antenne keine stehende Welle ausbilden. Man spricht in diesem Fall von einer aperiodischen Antenne, die durch die auf dem Leiter entlanglaufende Wanderwel- le ein besseres Vor-Rück-Verhältnis erhält.

Solche langen Antennen haben, besonders bei niedriger Aufhängung (Höhe der Anten- ne über Grund), einen sehr schlechten Wirkungsgrad. Sie werden aber häufig als Richt- antennen für Empfangszwecke (Beverage-Antenne) genutzt. Der Begriff Flächenanten- nen (oder Flächenstrahler) bezeichnet Antennen, die im Gegensatz zu den linearen An- tennen eine leitungsgeführte Welle an einer Flächenausdehnung, beispielsweise eine Öffnung in einem Hohlleitersystem, in Freiraum wellen um wandeln und umgekehrt. Flächenstrahler werden bei Frequenzen oberhalb von etwa 1 GHz als Richtstrahler ein- gesetzt. Ein technisch einfaches Beispiel ist der Rechteckhomstrahler, bei dem ein Rechteckhohlleiter aufgeweitet wird bis die Öffnung in ihren Abmessungen groß ge- genüber der Wellenlänge l ist.

Aperturstrahler sind Antennen, die über eine strahlende Öffnung (Apertur) elektroma- gnetische Energie abstrahlen oder aufnehmen. Je größer die Öffnung im Verhältnis zur Wellenlänge, desto stärker die Bündelung der Strahlung zufolge des Rayleigh- Kriteriums. Aperturstrahler haben meistens die Form eines Hohlleiters, der sich allmäh- lich zum Horn aufweitet. Dadurch bleibt die Feldverteilung der eingespeisten Welle weitgehend erhalten und der Übergang in den Freiraum ist nahezu reflexionsfrei. Als Reflektorantennen bezeichnet man Antennen, deren Ende entgegen der Strahlungsrich- tung aus einer reflektierenden Fläche besteht. Im einfachsten Fall ist das eine Yagi- Antenne, deren Rückseite z. B. aus einer Vielzahl von Reflektorstäben oder einer im Verhältnis zur Wellenlänge größeren metallischen Fläche besteht.

Sofern Reflektorflächen von mindestens 10 Wellenlängen Durchmesser praktikabel sind, sind Parabolantennen in aller Regel das Mittel der Wahl. Vergleichbare Anten- nengewinne lassen sich, wenn überhaupt, nur durch Gruppenantennen erreichen, die komplexer aufgebaut sind. Im Brennpunkt eines Parabolspiegels (die Fläche ist ein Pa- raboloid) sitzt der Primärstrahler. Das Strahlungsdiagramm dieser Antenne wird so ge- wählt, dass sie den Spiegel möglichst gut ausleuchtet, ohne darüber hinaus zu strahlen. Dafür eignen sich, je nach Frequenz, z. B. Homstrahler oder kurze Yagi- Antennen.

Die Spiegel müssen keine geschlossenen Metallflächen sein, sondern dürfen Öffnungen von etwa 1/10 der Wellenlänge aufweisen, wodurch sich der Fertigungsaufwand und die Windlast senken lassen. Auch die Form der Fläche darf Abweichungen in dieser Größenordnung aufweisen. Für die Form des Spiegels kann im Prinzip ein beliebiger Teil des Paraboloiden genutzt werden. So benutzen viele Antennen für den Femsehsa- telliten-Empfang sogenannte Offsetantennen, bei denen der Brennpunkt nicht in der Symmetrieachse liegt, sondern daneben.

Antennen-Bauformen, die sich nicht unter vorgenannte Typen einordnen lassen, sind z. B.: -Wendelantennen (Abstrahlung in Richtung der Achse einer Draht- oder Streifenwen- del, zirkulare Polarisation)

-Vivaldi- Antennen (zweidimensionaler Exponentialtrichter am Ende einer Schlitzlei- tung)

-Antennen, die durch Schlitze in Hohlleitern entstehen (Abstrahlrichtung quer oder längs zum Hohlleiter)

-Spiralantennen, Abstrahlung beidseitig senkrecht zu einer aus Streifenleitungen gebil- deten Spirale, zirkular polarisiert

-Fraktalantenne

-Topfantenne

-Patchantennen und PIFA auf Leiterplatten

-T2FD (Bauform ähnlich einem Faltdipol, durch einen Abschlusswiderstand aber ohne Resonanzeffekte)

-dielektrische Antennen für Mikrowellen

-Schmetterlingsantenne, verschiedene Bauformen, beispielsweise für den Empfang von DVB-T

-Zimmerantennen zur Aufstellung oder Installation direkt im Wohnraum nahe einem Empfänger, es werden sowohl Linear- als auch Rahmen- oder Schmetterlingsantennen verwendet, oft auch als Aktivantenne..

Der Begriff Gruppenantenne (auch Antennenarrays genannt) bezeichnet Antennen, die aus einer Anzahl von Einzelstrahlem konstruiert sind, deren abgestrahlte Felder sich überlagern und durch konstruktive Interferenz zu einem gemeinsamen Antennendia- gramm formen. Als Einzelstrahler können fast alle Antennenbauformen eingesetzt wer- den, also auch im Aufbau komplizierterer Antennen, wie Yagi- Antennen. Alle Einzel- antennen befinden sich meist geometrisch in einer Ebene senkrecht zur Abstrahlrich- tung und müssen jeweils phasenrichtig zueinander gespeist werden. Satelliten- Empfangsantennen, die wie eine flache, meist rechteckige Fläche aussehen, sind typi- sche Vertreter einer Gruppenantenne. Gruppenantennen kann man als den Spezialfall eines Phased Array betrachten, bei dem alle Antennen mit der gleichen Phasenlage an- gesteuert werden. Eine Verallgemeinerung der Gruppenantenne ist das Phased-Array. Bei dieser Anten- nengruppe können die einzelnen Strahlerelemente oder Strahlergruppen mit unter- schiedlicher Phasenlage und manchmal auch mit unterschiedlicher Leistung gespeist werden. So lässt sich das Richtdiagramm der Antenne rein elektronisch, also sehr schnell, ändern und wird für Radar- Anlagen benutzt.

Eine Monopuls-Antenne wird bei modernen Radargeräten verwendet, um die Genauig- keit der Winkelmessung bei der Richtungsbestimmung sowie das Zeitbudget des Ra- dars zu verbessern. Bei der Monopulsantenne werden die einzelnen Strahler in zwei Hälften (oder vier Quadranten für dreidimensionales Radar) aufgeteilt. Aus deren Emp- fangssignalen werden in einem Monopuls-Diplexer sowohl Summen- als auch Diffe- renzsignale gebildet, die in zwei bis vier identischen Empfangskanälen weiterverarbei- tet werden. Mit diesen Signalen kann ein Rechner die Position eines Zieles innerhalb des Peilstrahls bestimmen.

Magnetische Antennen verwenden primär ein Magnetfeld zur Strahlungserzeugung bzw. empfangen primär die magnetische Feldkomponente der elektromagnetischen Strahlung. Sie bestehen aus einer Leiterschleife (im einfachsten Fall mit nur einer Win- dung) und besitzen durch das Vektorfeld eine Richtwirkung (bei stehender Spule eine Achtcharakteristik) und können, wie alle verkürzten Antennen, gegenüber der Wellen- länge sehr klein sein, wenn die Spule aus mehreren Windungen besteht. Zu den magne- tischen Antennen zählen auch die Rahmenantennen, aus einer drehbaren Spule beste- hende Peilantennen und Ferritantennen, jedoch nicht induktiv verlängerte Antennen wie die Gummiwurst. Auch die Wendelantenne ist keine magnetische Antenne, da der ge- wundene Leiter zur Führung der Welle dient und dort schon das Femfeld anfängt.

Neben der messtechnischen Bestimmung von Antennenparametem hat die Simulation von Antennen bzw. ganzer Antennensysteme samt in der Nähe befindlicher weiterer Einflussfaktoren (Masten, metallische Abspannseile usw.) per Computer an Bedeutung gewonnen. Die Rechnersimulation erlaubt eine hohe Genauigkeit, wenn es denn ge- lingt, die Antenne (und gegebenenfalls deren relevante Umgebung) auch genau in den Rechner zu„übernehmen“. Eine ausreichend genaue Modellierung einer Antenne im Rechner wirft aber meistens geringere Probleme auf als die messtechnische Erfassung und ist deshalb auch billiger. Insbesondere ab Frequenzen im UHF -Bereich und bei sehr kleinen Funkmodulen - z. B. für Nutzung in den ISM-Bändem - wird eine messtechni- sche Erfassung der Antennenimpedanzwerte deutlich ungenauer sein als eine Simula- tion. Gleiches gilt auch für das Abstrahlverhalten bei harmonischen Frequenzen (sog. Oberwellen). Viele Computerprogramme für die Antennensimulation beruhen auf dem NEC2- Algorithmus (Numerical Electromagnetic Code), der ursprünglich für die US- amerikanischen Streitkräfte entwickelt wurde und frei zugänglich ist.

Mit Hilfe von modernen und handelsüblichen Simulationsprogrammen können die ver- schiedenen Parameter der Antenne (z. B. die Antennenimpedanz, Strahlungscharakteri- stik) auch über einen größeren Frequenzbereich berechnet werden. So kann beispiels- weise die räumliche Strahlungscharakteristik anschaulich als dreidimensionale Fläche mit entsprechenden Erhöhungen„Bergen“ und Vertiefungen„Tälern“ als Falschfarben- darstellung visualisiert werden. Außerdem ist es auch möglich, die Stromverteilung ent- lang der Antenne anzugeben, um hieraus konstruktive Verbesserungen abzuleiten.

Siehe auch: Momentenmethode (Elektrotechnik)

Werden Antennen im Freien an hohe Masten montiert, welche die Umgebung überra- gen, so müssen sie vor Blitzschlag geschützt werden. Die Vorschriften dazu sind im Baurecht des jeweiligen Landes oder Staates enthalten. Für Deutschland siehe das Merkblatt des VDE.

Antennen bieten starkem Wind einen Widerstand, Windlast genannt. Die Antennen- und Mastkonstruktion muss diese zusätzlichen Kräfte aufnehmen können. Beim Errich- ten von Antennenanlagen muss diese Windlast, die in den Datenblättern von Antennen- herstellem angegeben wird, bei der statischen Berechnung berücksichtigt werden. An- tennen, Mastkonstruktionen und Abspannungen können im Winter vereisen. Dabei können das Gewicht der Antennenkonstruktion und die Angriffsfläche für die Windlast erheblich vergrößert werden, sowie eine starke Dämpfung des Signals auftreten. Außer- dem können durch herabfallende Eisbrocken Menschen verletzt werden. Deshalb sind beim Aufbau und Betrieb einer Antennenanlage mögliche Gefahren, die durch Verei- sung entstehen können, zu berücksichtigen.

In Einzelfallen werden Teile der Antennenanlage auch geheizt, um die Leistungsverlu- ste der Antenne im Winter zu kompensieren und einer Vereisung vorzubeugen. Eine andere Möglichkeit, einer Vereisung bis zu einem gewissen Grad vorzubeugen, sind hohle Antennenträger aus glasfaserverstärktem Kunststoff (GFK) mit glatter Außen- oberfläche, in welche die Antennen eingebaut werden, oder durchgehende Kunststoffschalungen als Vorbau, auch als Radom bezeichnet. Diese Techniken werden vor allem bei UHF -Fernsehsendern, manchmal aber auch bei VHF- und UKW-Sendern angewendet.

117. Authentifizierung

Verwendung eines elekronischen Elementes (E) zur sicheren Authentifizierung.

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie. Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungssystem und/oder Verfahren, insbesondere Block- chainverfahren, als technische Neuerung und zur Vermeidung der unsicheren Zwei- Faktor- Authentisierung (2FA).

Authentifizierung (von altgriechisch aύqentikόV authentikös, deutsch zuverlässig, nach einem sicheren Gewährsmann ;[1] Stammform verbunden mit lateinisch facere ja- chen ) ist der Nachweis (Verifizierung) einer behaupteten Eigenschaft (claim) einer En- tität, die beispielsweise ein Mensch, ein Gerät, ein Dokument oder eine Information sein kann und die dabei durch ihren Beitrag ihre Authentisierung durchführt.

Das zugehörige Verb lautet authentifizieren (englisch: authenticate), das für das Bezeu- gen der Echtheit von etwas steht. [2] In der Informatik wird das substantivierte Wort Authentifizieren häufig sowohl für den Vorgang der Echtheitsprüfung als auch für das Ergebnis dieser Überprüfung verwendet, da im englischen Sprachraum zwischen den Aktionen der beteiligten Entitäten syntaktisch nicht unterschieden wird. Im deutschen Sprachraum wird der Begriff Authentifikation für die Prüfung der Echtheit und der Be- griff Authentifizierung[2] für die Bezeugung der Echtheit verwendet.

Die Authentisierung einer Entität bezüglich der behaupteten Eigenschaft der Authenti- zität, die beispielsweise Einräumen einer„bestehenden Zugangsberechtigung“ oder , Echtheit“ sein kann, erlaubt der authentifizierten Entität weitere Aktionen. Die Entität gilt dann als authentisch.

Die abschließende Bestätigung einer Authentifizierung wird auch als Autorisierung be- zeichnet, wenn sie durch bestimmte zulässige Modi und/oder in einem bestimmten Kontext eingeschränkt wird. Eine Authentifizierung gilt so lange, bis der betreffende Kontext verlassen oder verändert oder bis der betreffende Modus verlassen oder verän- dert wird. Bei einer Authentifizierung zwischen zwei Entitäten authentisiert sich die Ei- ne, während die Andere die Erstere authentifiziert. Die Authentifizierung ist eine Veri- fizierung der Behauptung der Authentizität. Oft wird die Authentifizierung eines Ge- genübers dabei als Identifizierung dessen verwendet und ist auch im Sinne einer Identi- tätsfeststellung denkbar. Authentifizierung ist somit im Prinzip der Nachweis, dass es sich um das Original handelt, wobei sich eine Authentifizierung nicht nur auf Menschen beziehen kann, sondern auf beliebige materielle oder immaterielle Gegenstände, z. B. elektronische Dokumente oder auch Kunstgegenstände.

Im Beispiel eines Computerprogrammes, welches Zugang zu einem gesicherten Bereich gewähren kann, behauptet der Benutzer zuerst seine Zugangsberechtigung, indem er ei- nen Benutzemamen eingibt. Zusätzlich authentisiert er sich, indem er sein Passwort an- gibt. Das Programm identifiziert dann den Benutzer anhand dieser Angaben und führt anschließend die Authentifizierung durch, also die Verifizierung der erbrachten Be- hauptung über die Authentizität. Erst wenn diese Verifizierung erfolgreich ist, werden dem Benutzer die festgelegten Zugangsberechtigungen im Rahmen der Autorisierung üblicherweise für die Dauer einer Sitzung zugewiesen. Damit steht für das Programm die Identität des Kommunikationspartners fest, obwohl die sich im Laufe der Zeit än- dern kann (zum Beispiel während eines MITM-Angriffs) oder auch von Anfang an nicht bestanden haben kann (zum Beispiel nach Phishing). Ob dem authentifizierten Benutzer der Zugang gewährt werden darf, entscheidet das Programm im Rahmen der Autorisierung. Wenn auch dies erfolgreich ist, gewährt das Programm dem Benutzer Zugang zum gesicherten Bereich.

Die Authentisierung (Nachweisen der eigenen Identität) kann ein Benutzer auf drei ver- schiedenen Wegen erreichen:

1. Nachweis der Kenntnis einer Information: Er weiß etwas, zum Beispiel ein Passwort

2. Verwendung eines Besitztums: Er hat etwas, zum Beispiel einen Schlüssel

3. Gegenwart des Benutzers selbst: Er ist etwas, zum Beispiel in Form eines biometri- schen Merkmals

Die Wahl der Authentisierungsmethoden führt je nach Anwendungsgebiet zu verschie- denen Vor- und Nachteilen bei der Praktikabilität für den Benutzer im Alltag und Si- cherheitsbedarf des zu schützenden Guts. Eine sorgfältige Abwägung vor der Umset- zung und Inbetriebnahme gewährleistet hierbei das tatsächlich erreichte Sicherheitsni- veau.

1. Wissen , Charakteristika:

-kann vergessen werden

-kann dupliziert, verteilt, weitergegeben und verraten werden

-kann eventuell erraten werden

-die Preisgabe von Wissen kann kompromittiert werden

-die Mitführung von Wissen erfordert keine praktischen Hilfsmittel

Beispiele für Authentifikation anhand von Wissen:

-Passwort

-PIN

-Antwort auf eine bestimmte Frage (Sicherheitsfrage) -Zero-Knowledge-Beweis

2. Besitz, Charakteristika:

-Erstellung des Merkmals (ggf. auch der Kontrollstellen) unterliegt vergleichsweise ho- hen Kosten (benötigt oft einen speziellen Fertigungs vor gang und einen physischen Ver- teilungsprozess)

-Verwaltung des Besitzes ist unsicher und mit Aufwand verbunden (muss mitgeführt werden)

-kann verlorengehen

-kann gestohlen werden

-kann übergeben, weitergereicht oder (in manchen Fällen) dupliziert werden

-kann ersetzt werden

-kann benutzerindividuelle Daten speichern

-kann sich selbst schützen und aktiv verändern (Smartcard, SecurID)

Beispiele für Authentifikation anhand von Besitz:

Chipkarte, auch bekannt als Smartcard oder als Signaturkarte

-Magnetstreifenkarte

-RFID-Karte

-physischer Schlüssel

-Schlüssel-Codes auf einer Festplatte

-SIM-Karte beim mTAN-Verfahren

-Zertifikat z. B. für die Verwendung mit SSL

-TAN- und iTAN-Liste

-One Time PIN Token (z. B. SecurID)

-USB-Stick mit Passworttresor

-USB-Festplatte mit integrierter PIN-Eingabetastatur

3. Körperliches Merkmal/ Biometrie -Charakteristika:

-ist eine öffentliche Information

-wird durch Personen immer mitgefuhrt -kann nicht an andere Personen weitergegeben werden

-nach Erfassung des Merkmals ist eine Verteilung der erfassten Daten zum Abgleich an Kontrollpunkten notwendig

-benötigt zur Erkennung eine spezielle Vorrichtung (Technik)

-kann i. A. nicht sicher, sondern nur mit einer Wahrscheinlichkeit (< 1) erfolgreich mit einem Referenzmuster verglichen werden

-fälschliche Akzeptanz ist möglich (false acceptance)

-fälschliche Zurückweisung ist möglich (false rejection)

-eine Lebenderkennung kann erforderlich sein (damit z. B. ein künstlicher Fingerab- druck oder abgeschnittener Finger zurückgewiesen wird)

-ist im Laufe der Zeit oder durch Unfälle veränderlich und damit schlechter erkennbar

-bei ungünstiger Wahl des Merkmals sind bestimmte Personengruppen, denen das

Merkmal fehlt, ausgeschlossen

-kann nicht ersetzt werden

-kann Probleme beim Datenschutz aufwerfen

-Beispiele für Authentifikation anhand von biometrischen Merkmalen:

-Fingerabdruck

-Gesichtserkennung

-Tippverhalten

-Stimmerkennung

-Iriserkennung

-Retinamerkmale (Augenhintergrund)

-Handschrift (Unterschrift)

-Handgeometrie (Handflächenscanner)

-Handlinienstruktur

-Erbinformation (DNS)

Während der Authentifikation werden Daten übertragen. Werden diese Daten abgehört, können sie von einem Angreifer verwendet werden, um eine falsche Identität vorzu- spiegeln. Um die Gefahr der Preisgabe auszuschließen, werden Verfahren wie Challen- -kann nicht an andere Personen weitergegeben werden

-nach Erfassung des Merkmals ist eine Verteilung der erfassten Daten zum Abgleich an Kontrollpunkten notwendig

-benötigt zur Erkennung eine spezielle Vorrichtung (Technik)

-kann i. A. nicht sicher, sondern nur mit einer Wahrscheinlichkeit (< 1) erfolgreich mit einem Referenzmuster verglichen werden

-fälschliche Akzeptanz ist möglich (false acceptance)

-fälschliche Zurückweisung ist möglich (false rejection)

-eine Lebenderkennung kann erforderlich sein (damit z. B. ein künstlicher Fingerab- druck oder abgeschnittener Finger zurückgewiesen wird)

-ist im Laufe der Zeit oder durch Unfälle veränderlich und damit schlechter erkennbar

-bei ungünstiger Wahl des Merkmals sind bestimmte Personengruppen, denen das

Merkmal fehlt, ausgeschlossen

-kann nicht ersetzt werden

-kann Probleme beim Datenschutz aufwerfen

-Beispiele für Authentifikation anhand von biometrischen Merkmalen:

-Fingerabdruck

-Gesichtserkennung

-Tippverhalten

-Stimmerkennung

-Iriserkennung

-Retinamerkmale (Augenhintergrund)

-Handschrift (Unterschrift)

-Handgeometrie (Handflächenscanner)

-Handlinienstruktur

-Erbinformation (DNS)

Während der Authentifikation werden Daten übertragen. Werden diese Daten abgehört, können sie von einem Angreifer verwendet werden, um eine falsche Identität vorzu- spiegeln. Um die Gefahr der Preisgabe auszuschließen, werden Verfahren wie Challen- ge-Response-Authentifizierung und Zero Knowledge verwendet, bei denen das sich au- thentisierende Subjekt nicht mehr die Identifizierungsdaten selbst übermittelt, sondern nur einen Beweis dafür, dass es diese Identifizierungsdaten zweifelsfrei besitzt.

Ein Beispiel aus der Challenge-Response-Authentifizierung ist, dass eine Aufgabe ge- stellt wird, deren Lösung nur von einem Gegenüber stammen kann, welches ein be- stimmtes Wissen bzw. einen bestimmten Besitz hat. Somit kann ein Gegenüber authen- tifiziert werden, ohne dass dieses sein Wissen bzw. seinen Besitz preisgeben musste. Es ist jedoch zu bemerken, dass auch auf solche Verfahren Angriffsmöglichkeiten beste- hen.

Andere Systeme lösen das Problem, indem die Identifizierungsdaten nur einmal benutzt werden. Ein Beispiel hierfür ist das TAN-System. Allerdings können abgehörte oder ausspionierte Identifizierungsdaten später benutzt werden, wenn die Erstbenutzung und damit die Invalidierung der Daten während des Abhörvorgangs verhindert werden kön- nen. Einmalpasswort-Systeme vermindern dieses Problem durch eine Kopplung der Identifizierungsdaten an die aktuelle Zeit. Eine andere Möglichkeit zur Sicherung der Übertragung ist die sogenannte„Second-Channer‘-Kommunikation, bei der ein Teil der Identifizierungsdaten über einen zweiten Kanal transferiert wird. Ein Beispiel ist der Versand einer SMS beim mobile TAN (mTAN) System.

Im Rahmen von kryptographischen Protokollen werden oft zusätzliche Zufallszahlen als sogenannte„Nonce“- oder„Salt“-Werte verwendet, um die Wiederholung einer Identifizierung zu verhindern. Mit U2F und UAF hat die FIDO-Allianz im Dezember 2014 zwei freie Industriestandards veröffentlicht, die zum Nachweis der Zugriffsbe- rechtigung für beliebig viele und verschiedene Web-basierte Dienste eingesetzt werden. Durch geeignete Kombination der Methoden können Defizite bei der Authentifikation vermindert werden. Andererseits sind Kombinationen mehrerer Methoden mit höheren Kosten und/oder höherem Aufwand verbunden. Dynamische Systeme, die je nach Wert und damit Risiko einer Transaktion oder der Sicherheit der verwendeten Online- Verbindung automatisch stärkere oder schwächere Authentifikationsmethoden wählen, erhöhen allerdings die Akzeptanz beim Anwender und vermeiden bei risikoarmen Transaktionen produktivitätssenkende Arbeitsschritte.

Bei einer Kombination von zwei Methoden spricht man von einer Zwei-Faktor- Authentifikation oder auch Zwei-Stufen-Authentifikation. Das Bundesamt für Sicher- heit in der Informationstechnik (BSI) definiert dies als starke Authentisierung.[4] Ein typisches Beispiel für die Kombination von Wissen und Besitz ist ein Geldautomat: Man besitzt die Bankkarte und weiß die persönliche Identifikationsnummer (PIN). Ein ähnliches Prinzip gibt es bereits auch im Bereich von mobilen Sicherheitsfestplatten. Bei speziellen Hochsicherheitsfestplatten wird dabei der Zugriff mittels Smartcard und 8-stelliger PIN gesichert. Im Internet wird häufig auch der Zugang mittels Passwort in einem ersten Schritt gewährt. Um jedoch vollen Zugriff zu erhalten, wird noch ein ein- maliger Code an das Mobiltelefon per SMS gesendet, der anschließend auf der Websei- te zur Bestätigung eingegeben werden muss. Dies wird beispielsweise oft beim Online- Banking verwendet, um eine Transaktion zu authentifizieren. Der Industriestandard Universal Second Factor (U2F) dient zur geräte- und anbieterunabhängigen Zwei- Faktor- Authentifikation.

Unter dem Vier-Augen-Prinzip wird eine getrennte Authentifizierung durch zwei Per- sonen verstanden. Eine solche Authentifizierung wird meist für Systeme mit hohem Schutzbedarf eingesetzt: Zum Beispiel erfordert das Öffnen von Safes in Banken manchmal zwei Personen, die sich durch Besitz (zweier getrennter Schlüssel) authenti- sieren. Ein Generalschlüssel ist ein durch Wissen gesicherter und hinterlegter (versteck- ter) Besitz, der bei einem Totalverlust aller anderen Authentisierungsmerkmale noch eine Authentisierungsmöglichkeit bietet.

Sichere und praktikable Authentifizierung-Möglichkeiten für IT-Dienste anzubieten wird heute als eine eigenständige und übergeordnete Aufgabe gesehen. Man spricht von „Authentication as a Service“ (AaaS) und von„Authentifizierungs- und Autorisierungs- Infrastruktur“ (AAI). Auf der Ebene von Unternehmen oder Universitäten werden Au- thentifizierungsdienste im Rahmen eines zentralen Identitätsmanagements organisiert. Auch mit dem neuen Personalausweis wird von staatlicher Seite ein elektronischer Au- thentifizierungsdienst angeboten.

Der Authentifizierungsdienst tritt als dritte vermittelnde Instanz neben einen IT-Dienst und den Nutzer des IT-Dienstes. Man bezeichnet den Authentifizierungsdienst dabei auch als den„Identity-Provider“. Will der Nutzer den Dienst nutzen, wird er zunächst an den Identity-Provider umgelenkt. Die Authentifizierung findet zwischen Nutzer und Identity-Provider statt. Nach erfolgreicher Authentifizierung stellt der Identity-Provider eine sogenannte Assertion aus, die der Nutzer erhält und die er dem IT-Dienst vorzeigt. Der IT-Dienst muss natürlich dem Identity-Provider vertrauen, dass er Nutzer korrekt authentifiziert, und er muss eine Möglichkeit haben, die Herkunft der Assertion zu prü- fen. Beispiele für solche Verfahren sind Shibboleth, CAS und OpenID. Siehe auch Di- gitales Zertifikat, Zertifizierung, Zugangskontrolle (Informatik), Zugriffsrecht.

118. Biometrischer Reisepass

Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungs- system und/oder Verfahren, insbesondere Blockchainverfahren, vorzugsweise als tech- nische Neuerung in der Kryptologie. Verwendung eines Elekronischen Elementes (E) für ein verschlüsseltes Buchführungssystem und/oder Verfahren, insbesondere Block- chainverfahren, als technische Neuerung und zur Vermeidung der unsicheren Zwei- Faktor-Authentisierung (2FA). Verwendung eines elekronischen Elementes (E) zur si- cheren Authentifizierung, vorzugsweise für einen Reisepass und/oder Personalausweis und/oder die erfindungsgemässe Omnicard (O), als sichere All in one Card

Der biometrische Reisepass (auch elektronischer Reisepass, kurz ePass genannt) ist eine Kombination eines papierbasierten Reisepasses mit elektronischen Komponenten (da- her das vorangestellte„e“ für , elektronisch“). Der ePass enthält biometrische Daten, die verwendet werden, um die Identität eines Reisenden feststellen zu können. Die weltwei- te Einführung von biometrischen Pässen wurde durch die Behörden der USA nach den Tenoranschlägen vom 11. September 2001 gefordert. Seit 1998 befasst sich die internationale Zivilluftfahrtbehörde International Civil Avia- tion Organization (ICAO), eine Sonderorganisation der Vereinten Nationen, mit elek- tronisch auswertbaren biometrischen Merkmalen in maschinenlesbaren Reisedokumen- ten. 2003 führte dies zur Vorstellung einer unter der Bezeichnung„Blueprint“ (engl für „Bauplan“) bekannt gewordenen Empfehlung. Sie fordert alle Mitglieder der Vereinten Nationen dazu auf, zukünftig biometrische Merkmale der Inhaber elektronisch auf dem Reisedokument zu speichern. Kriterien für die Auswahl der zu verwendenden Techni- ken sind: weltweite Interoperabilität, Einheitlichkeit, technische Zuverlässigkeit, Prak- tikabilität und Haltbarkeit.

Die vier zentralen Punkte des„Blueprint“ sind die Verwendung von kontaktlosen Chips (RFID), die digitale Speicherung des Lichtbildes auf diesen Chips, wobei weitere Merkmale wie Fingerabdrücke oder Irismuster der Augen ergänzt werden können, die Verwendung einer definierten logischen Datenstruktur (Logical Data Structure, LDS) und ein Verfahren zur Verwaltung von digitalen Zugangsschlüsseln (Public-Key- Infrastruktur, PKI). Die Vorgaben wurden in der Weiterentwicklung des Standards 9303 der ICAO zusammengefasst.

Am 13. Dezember 2004 beschloss der Rat der Europäischen Union auf politischen Druck der Vereinigten Staaten, die mit dem Wegfall der Visumfreiheit für europäische Reisende drohten, die Pässe der Mitgliedsstaaten gemäß diesem Standard mit maschi- nenlesbaren biometrischen Daten des Inhabers auszustatten. Am 22. Juni 2005 billigte das deutsche Bundeskabinett einen Vorschlag des damaligen Bundesinnenministers Ot- to Schily (SPD) zur Einführung eines solchen Reisepasses, der ihn als„wichtigen Schritt auf dem Weg zur Nutzung der großen Fortschritte der Biometrie für die innere Sicherheit“ bezeichnete.

Diese Begründung ist umstritten. Es wird argumentiert, dass der deutsche Reisepass schon vor der Biometrisierung als eines der fälschungssichersten Dokumente weltweit gegolten habe. Es sei beispielsweise kein Terrorakt in Europa bekannt, zu dessen Durchführung ein gefälschter deutscher Pass oder Personalausweis benutzt wurde. Dem wird entgegengehalten, dass bereits die RAF-Terroristen regelmäßig falsche oder ver- fälschte Dokumente missbrauchten. Dabei ist jedoch zu berücksichtigen, dass zu Zeiten der RAF noch die auch so zwischenzeitlich längst überholten - damals teilweise noch handschriftlich ausgefüllten - Generationen von Ausweisdokumenten (grüner Reise- pass, grauer Personalausweis) Stand der Technik waren.

Der Rat der Europäischen Union hat die Aufnahme des Gesichtsbildes sowie von Fin- gerabdrücken in elektronischer Form in der Verordnung Nr. 2252/2004 des Rates vom 13. Dezember 2004 über Normen für Sicherheitsmerkmale und biometrische Daten in von den Mitgliedstaaten ausgestellten Pässen und Reisedokumenten verbindlich vorge- schrieben. Da die EG-Verordnung eine elektronische Speicherung der biometrischen Daten im Pass vorsieht, strebt der Entwurf ein durchgängig elektronisches Verfahren der Passbeantragung an. Dieser Rechtsakt gilt nicht für die EU-Länder Dänemark, Ir- land und Vereinigtes Königreich. Er findet allerdings Anwendung in den mit der EU as- soziierten Ländern Island, Liechtenstein, Norwegen und Schweiz.

Seit dem 1. November 2005 werden von der Bundesrepublik Deutschland Reisedoku- mente mit biometrischen Daten ausgegeben. Die Reisepässe enthalten einen Chip, in dem zunächst nur ein digitales Foto mit den Gesichtsmerkmalen des Passinhabers ge- speichert wurde. Dafür wird ein biometrisches Passbild benötigt. Seit 1. November 2007 werden auch zwei Fingerabdrücke digital integriert, später könnte auch ein Scan der Iris hinzukommen.Der Kinderreisepass enthält keinen Chip mit biometrischen Merkmalen, das Passbild muss allerdings biometriefähig seiAm 8. Juni 2007 verbreitete der Bundesrat in einer Botschaft die Idee, dass in der Schweiz biometrische Pässe ein- gefuhrt werden sollen.

Das Schweizer Parlament hatte am 12. März 2008 die Einführung des neuen biometri- schen Schweizer Passes (Pass 10) mit Gesichtsbild und Fingerabdrücken ab Mitte 2009 mit 102 zu 50 Stimmen gutgeheißen. Am 13. Juni 2008 genehmigte es den Bundesbe- schluss. Alle Schweizer haben weiterhin Anspruch auf eine preisgünstige nicht biome- trische Identitätskarte ohne Chip. Fingerabdrücke werden zentral gespeichert - der Rat lehnte alle Anträge von linksgrüner Seite ab, die auf einen verstärkten Datenschutz ziel- ten. So verlangte die Minderheit, auf die Speicherung der Fingerabdrücke in der zentra- len Datenbank des Bundesamts für Polizei zu verzichten. Der Schweizer Datenschutz- beauftragte Hanspeter Thür wandte sich gegen die zentrale Speicherung von biometri- schen Daten, ist jedoch nicht gegen die Speicherung auf dem Chip im Reisepass. Ein Einzelantrag verlangte, die Fingerabdruck-Speicherung auf Wunsch der einzelnen Bür- ger zu unterlassen. Bundesrätin Widmer-Schlumpf und die Ratsmehrheit widersetzten sich dem mit dem Argument, es gelte Missbrauch zu verhindern. Die Ausweisfälschung habe der Ausweiserschleichung Platz gemacht. Nur die Speicherung der Fingerabdrük- ke verhindere das.

An der Volksabstimmung vom 17. Mai 2009 wurde darüber entschieden, ob mm end- gültig biometrische Pässe eingefuhrt werden soll. Bundesrätin Eveline Widmer- Schlumpf und Regierungsrat Hans-Jürg Käser sprachen sich eindeutig aus, [15] weshalb die Schweiz biometrische Pässe einführen müsse. Das Datenschutzanliegen spaltete je- doch das Volk, weshalb sich nur 50,1 % dafür und 49,9 % dagegen aussprachen. Die Wahlbeteiligung betrug 38,77 %.

Am 1. März 2010 ist der Bundesbeschluss über die Genehmigung und die Umsetzung des Notenaustausche zwischen der Schweiz und der Europäischen Gemeinschaft betref- fend die Übernahme der Verordnung (EG) Nr. 2252/2004 über biometrische Pässe und Reisedokumente in Kraft getreten.

Der schweizerische Reisepass erhält folgende Daten:

-Amtlicher Name (Allianzname, falls beantragt)

-Vomame/n

-Geschlecht

-Geburtsdatum

-ein Heimatort (bei mehreren der gewünschte)

-Nationalität -Grösse (bei Kindern bis zum vollendeten 14. Lebensjahr erscheinen drei Sternchen im

Ausweis

-Fotografie

-Ausstellende Behörde

-Datum der Ausstellung

-Datum des Ablaufs der Gültigkeit

-Ausweisnummer und Ausweisart

-Datenchip mit Gesichtsbild und Fingerabdrücken ist nur im Pass enthalten (Fingerab- drücke nur, wenn Inhaber/in über zwölf Jahre alt ist)

-Unterschrift gemäss Antrag (betr. nur DDK). Im Pass muss die Unterschrift eigenhän- dig angebracht werden; bei Kindern unter sieben Jahren und nicht schreibfähigen Per- sonen ist die Unterschrift nicht zwingend notwendig. Pässe von Kindern oder bevor- mundeten Personen dürfen nicht von den Eltern bzw. dem Vormund unterschrieben werden

-Amtliche Ergänzungen (wenn im Antrag vorhanden, sind nur im Pass möglich) -Maschinenlesbare Zone (MRZ)

Die Terroranschläge am 11. September 2001 in den Vereinigten Staaten hatten viele po- litische und wirtschaftliche Folgen. So wurde u. a. die Einführung biometrischer Reise- dokumente, die als ein Schlüssel zur wirksameren Bekämpfung von organisiertem Ver- brechen und illegaler Einwanderung angesehen werden, stark beschleunigt. Den ersten Schritt machte der UN-Sicherheitsrat mit der Resolution 1373 am 28. September 2001, in der beschlossen wurde, dass„alle Staaten [...] die Bewegung von Terroristen oder terroristischen Gruppen verhindern werden, indem sie wirksame Grenzkontrollen durchführen und die Ausgabe von Identitätsdokumenten und Reiseausweisen kontrollie- ren und Maßnahmen zur Verhütung der Nachahmung, Fälschung oder des betrügeri- schen Gebrauchs von Identitätsdokumenten und Reiseausweisen ergreifen.“

Anfang 2002 erfolgte in Deutschland eine entsprechende Anpassung des Passgesetzes, das ab dann die Einführung biometrischer Merkmale erlaubte (BGBl. I S. 361). Eben- falls im Jahr 2002 erließen die USA im Rahmen des US-Visit-Programm[19] den En- hanced Border Security Act[20] und verpflichteten die 36 Nationen, [21] die an ihrem Visa-Waiver-Programm (VWP)[21] teilnehmen, bis 26. Oktober 2004 Reisepässe ein- zufuhren, die die Speicherung von biometrischen Daten nach den ICAO-Standards er- möglichen, wenn sie im Visa-Waiver-Programm bleiben möchten. Im Laufe der weite- ren Entwicklung verschoben die USA den Pflichttermin zwei Mal, je um ein Jahr, auf den 26. Oktober 2006.

Die internationale Zivilluftfahrtbehörde ICAO erhielt den Auftrag, zu diesem Zweck Richtlinien zu entwickeln. Diese Richtlinien fordern den Einsatz eines RFID-Chips in den Reisepass. Der RFID-Chip soll die Speicherung und die kabellose Übertragung von Daten ermöglichen. Die Richtlinie stellt bis zu diesem Zeitpunkt einen De-facto- Standard dar. In Zukunft wird erwartet, dass sich diese Form der Identifikation weltweit durchsetzt.

Im Oktober 2004 begannen die USA, von allen visumspflichtigen und den meisten nicht-visumspflichtigen Einreisenden Fingerabdrücke und Fotos zu erfassen. Einreisen- de müssen den linken und den rechten Zeigefinger von einem Fingerabdruckscanner er- fassen und das Gesicht fotografieren lassen. Das System gleicht die Daten dann mit ei- ner Liste gesuchter Personen ab. Dieses Verfahren soll nicht nur der Terrorismusbe- kämpfung dienen, sondern es auch ermöglichen, die Einhaltung der erteilten Aufent- haltsgenehmigungen besser zu überwachen. Reisende sollen ab diesem Zeitpunkt einen maschinenlesbaren Pass mit biometrischen Merkmalen vorlegen, um ohne Visum durch einfaches Ausfullen eines Formulars in die USA einreisen zu können.

Der damalige Bundesinnenminister Otto Schily hat in einer Pressekonferenz in Berlin am 1. Juni 2005 die folgenden Vorteile des neuen ePasses geschildert. Deutsche Pässe galten schon vorher als sehr falschungssicher. Das nutzte aber wenig, da bereits inner- halb der Europäischen Union ein großes Gefälle bei den Sicherheitsstandards herrschte. Es soll verhindert werden, dass gefälschte europäische Pässe zur Begehung von Strafta- ten benutzt werden. Deshalb wurde mit dem ePass auf den hohen deutschen Standards aufgesetzt, ergänzt durch eine zusätzliche Fälschungshürde - die Biometrie. Damit soll- te ein neuer hoher, EU-weiter Standard definiert werden. Auf diese Weise wurde zum einen eine höhere Fälschungssicherheit erreicht, zum anderen eine maschinelle Über- prüfbarkeit anhand der Biometrie, ob ein Dokument zu der verwendenden Person ge- hört oder nicht. Bei Visumantragsteilem muss schon zum Zeitpunkt der Antragstellung gründlich über- prüft werden, ob Zweifel an der Identität bestehen. Zukünftig wird die biometrische Identifizierung von Visumantragstellem vor der Einreise der Regelfall sein. Bis Ende 2007 richtet die EU ein zentrales Visum-Informationssystem ein, in dem die Lichtbilder und Fingerabdrücke aller Antragsteller gespeichert werden. Mit Hilfe der Fingerab- drücke wird dann vor der Einreise festgestellt, ob ein Antragsteller zu einem früheren Zeitpunkt bereits ein Visum erhalten oder verweigert bekommen hat. Nach und nach werden an allen Grenzübergängen Geräte aufgestellt, mit deren Hilfe ein biometrischer Vergleich möglich wird - entweder zwischen dem Dokument und dem, der es benutzt, oder zwischen dem Reisenden und einer biometrischen Datenbank. Bei EU-Bürgem und visumfrei Reisenden wird das Dokument verwendet, bei Visuminhabem wird auf das Visuminformationssystem zugegriffen werden können. Die Nutzung gefälschter Schengen-Visa oder echter Schengen-Visa anderer Personen wird erheblich erschwert.

Mit Hilfe erkennungsdienstlicher Behandlungen können die Polizeien des Bundes und der Länder bereits heute Fingerabdrücke und Lichtbilder Verdächtiger aufnehmen und mit den Beständen im Bundeskriminalamt vergleichen. Mit biometrischen Technolo- gien wird die biometrische Unterstützung der Personenfahndung erheblich einfacher sein. Die anzustrebende technische Erweiterung der Automatisierten Fingerabdruck- identifizierungssystem-Datenbank um die Möglichkeit der Echtzeit-Suche in Teildaten- beständen sowie die vorgesehene Ausstattung der Grenzübergänge mit Fingerabdruck- scannem wird eine Fahndungsabfrage mit Fingerabdruck möglich machen - zukünftig auch unter Einsatz mobiler Geräte. Zur Unterstützung grenzüberschreitender Fahndun- gen werden darüber hinaus in der nächsten Generation des europaweiten polizeilichen Informationssystems - Schengener Informationssystem II (SIS) - Fingerabdrücke und Lichtbilder gespeichert. Ziel ist es hier, in einer künftigen Entwicklungsstufe des SIS, Fahndungsabffagen im SIS auf der Grundlage solcher biometrischer Daten durchzufuh- ren.

Die technische Unterstützung der Grenzkontrollen durch Biometrie kann genutzt wer- den, um die Kontrolle von vertrauenswürdigen Personen zu erleichtern - mit Zeitge- winn für den Reisenden und die Bundespolizei. Allerdings werden aktuell (Stand: Ende 2015) durch die Bundespolizei weder Fingerabdrücke noch biometrische Gesichts- merkmale standardmäßig bei der Einreise erfasst bzw. mit den in den Reisedokumenten hinterlegten biometrischen Daten elektronisch abgeglichen. Ein Zeitgewinn besteht de facto also bislang nicht.

Der neue elektronische Reisepass ist mit einem Radio-Frequency (RF)-Chip ausgestat- tet. Bei diesem RF-Chip handelt es sich um einen zertifizierten Sicherheitschip mit kryptographischem Koprozessor, auf dem neben den bisher üblichen Passdaten auch biometrische Merkmale gespeichert werden. Im RF-Chip wurden in der ersten Stufe des EU-Reisepasses im Wesentlichen folgende personenbezogenen Daten gespeichert: der Name, der Geburtstag, das Geschlecht und das Gesichtsbild des Inhabers. Bereits jetzt sind alle diese Daten in maschinenlesbarer Form in dem maschinenlesbaren Bereich (engl. Machine Readable Zone [MRZ]) auf der Datenseite des Reisepasses enthalten (mit Ausnahme des Gesichtsbildes, das zwar auf der Datenseite abgedruckt, aber nur bedingt maschinenlesbar ist).

RFID (Radio-Frequenz Identification) ist ein Verfahren zur automatischen Identifizie- rung von Objekten über Funk. Der Einsatz von RFID-Systemen eignet sich grundsätz- lich überall dort, wo automatisch gekennzeichnet, erkannt, registriert, gelagert, über- wacht oder transportiert werden muss.

Jedes RFID-System ist durch die folgenden Eigenschaften definiert:

-Elektronische Identifikation - Das System ermöglicht eine eindeutige Kennzeichnung von Objekten durch elektronisch gespeicherte Daten.

-Kontaktlose Datenübertragung - Die Daten können zur Identifikation des Objektes drahtlos über einen Funkfrequenzkanal ausgelesen werden. Senden auf Abruf - Ein gekennzeichnetes Objekt sendet seine Daten nur dann, wenn ein dafür vorgesehenes Lesegerät diesen Vorgang abruft.

Ein RFID-System besteht technologisch betrachtet aus zwei Komponenten, einem Transponder und einem Lesegerät:

Der Transponder ist der eigentliche Datenträger. Er wird in ein Objekt integriert (z. B. eine Chip-Karte) und kann kontaktlos über Funktechnologie ausgelesen und wieder be- schrieben werden. Grundsätzlich setzt sich der Transponder aus einer integrierten Schaltung und einem Radiofrequenzmodul zusammen. Auf dem Transponder sind eine Identifikationsnummer und weitere Daten über den Transponder selbst bzw. das Objekt, mit dem dieser verbunden ist, gespeichert.

Das Lesegerät besteht je nach eingesetzter Technologie aus einer Lese- oder einer Schreib-/Lese-Einheit sowie aus einer Antenne. Es liest Daten vom Transponder und weist möglicherweise den Transponder an, weitere Daten zu speichern. Weiterhin kon- trolliert das Lesegerät die Qualität der Datenübermittlung. Die Lesegeräte sind typi- scherweise mit einer zusätzlichen Schnittstelle ausgestattet, um die empfangenen Daten an ein anderes System (z. B. PC, Automatensteuerung) weiterzuleiten und dort weiter- zuverarbeiten.

Die Mechanismen des Zugriffschutzes stellen sicher, dass ein unautorisiertes Auslesen der Daten aus dem RF-Chip sowie ein Belauschen der Kommunikation unterbunden werden. Der Begriff„unautorisiert“ muss hierbei genauer differenziert werden: Primär ist darunter der Zugriff auf die Daten eines Passbuches im zugeklappten Zustand zu verstehen, also z. B. während sich der Pass in einer Reisetasche befindet (Basic Access Control). Für das Auslesen der Fingerabdrucksdaten aus Reisepässen der zweiten Stufe wird diese Anforderung insofern erweitert, als lediglich durch berechtigte Lesegeräte ein Zugriff erfolgen kann (Extended Access Control).

Dieser ZugrifFsschutz soll für die im RF-Chip abgelegten Daten genau die Eigenschaf- ten des bisherigen Reisepasses nachbilden: Um auf die im RF-Chip gespeicherten Da- ten zugreifen zu können, muss das Lesegerät auch tatsächlich optischen Zugriff auf die Datenseite des Reisepasses haben. Technisch wird das dadurch umgesetzt, dass sich das Lesegerät gegenüber dem RF-Chip authentisieren muss. Für diese Authentisierung be- nötigt das Lesegerät einen geheimen Zugriffsschlüssel, der sich aus der maschinenles- baren Zone des Reisepasses berechnet. Das Lesegerät muss also die maschinenlesbare Zone erst optisch lesen, daraus den Zugriffsschlüssel berechnen und kann sich dann erst gegenüber dem RF-Chip authentisieren.

In die Berechnung des Zugriffsschlüssels gehen die durch Prüfziffern gegen Lesefehler gesicherten Felder der MRZ ein: die Passnummer, das Geburtsdatum des Inhabers und das Ablaufdatum des Reisepasses. Geht man vom derzeitigen Reisepass aus, ist die Passnummer eine neunstellige Zahl, das heißt, es gibt 109 Möglichkeiten. Für das Ge- burtsdatum gibt es näherungsweise 365 x 102 Möglichkeiten und für das Ablaufdatum gibt es - bei einer Gültigkeit des Reisepasses von zehn Jahren - 365 x 10 Möglichkei- ten. Insgesamt ist die Stärke des Zugriffschlüssels daher mit etwa 56 Bit (3652 x 1012 ~ 256) zu bewerten und entspricht somit der Stärke eines normalen Data Encryption Standard (DES)-Schlüssels.

In der zweiten Stufe des EU-Reisepasses werden zusätzlich Fingerabdrücke auf dem RF-Chip gespeichert. Derart sensible Daten bedürfen eines besonders starken Schutzes und vor allem der Vorgabe einer engen Zweckbindung. Innerhalb der Arbeitsgruppe zur technischen Standardisierung des EU-Reisepasses fand daher die Spezifikation eines erweiterten Zugriffsschutzes statt. Dieser erweiterte Zugriffsschutz spezifiziert einen zusätzlichen Public-Key Authentisierungsmechanismus, mit dem sich das Lesegerät als zum Lesen von Fingerabdrücken berechtigt ausweist. Dazu muss das Lesegerät mit ei- nem eigenen Schlüsselpaar und einem vom RF-Chip verifizierbaren Zertifikat ausge- stattet werden. In diesem Zertifikat sind dann die Rechte des Lesegerätes exakt festge- legt. Dabei bestimmt immer das Land, das den Reisepass herausgegeben hat, auf wel- che Daten ein Lesegerät zugreifen kann. Die Integrität und die Authentizität der im RF-Chip gespeicherten Daten wird über eine digitale Signatur gesichert, sodass jede Form von manipulierten Daten zu erkennen ist. Somit kann überprüft werden, dass die signierten Daten von einer berechtigten Stelle erzeugt und seit der Erzeugung nicht mehr verändert wurden. Zum Signieren und Über- prüfen der digitalen Dokumente wird eine global interoperable Public Key Infrastruktur (PKI) benötigt. Jedes teilnehmende Land erzeugt dazu eine zweistufige PKI, die aus genau einer Country Signing CA (CA - Certification Authority) und mindestens einem Document Signer besteht: -Country Signing CA: Die Country Signing CA ist im Kontext der Reisepässe die ober- ste Zertifizierungsstelle eines Landes. International gibt es keine übergeordnete Zertifi- zierungsstelle, da nur so garantiert werden kann, dass jedes Land die volle Kontrolle über seine eigenen Schlüssel besitzt. Das von der Country Signing CA erzeugte Schlüs- selpaar wird ausschließlich zur Zertifizierung von Document Signem verwendet. Die Verwendungsdauer des privaten Schlüssels der Country Signing CA wurde auf drei bis fünf Jahre festgelegt. Entsprechend der Gültigkeitsdauer der Reisepässe von derzeit zehn Jahren muss der zugehörige öffentliche Schlüssel zwischen 13 und 15 Jahren gül- tig sein. -Document Signer: Document Signer sind zum Signieren der digitalen Dokumente be- rechtigte Stellen, zum Beispiel die Druckereien, die auch die physikalischen Dokumen- te produzieren. Jeder Document Signer besitzt mindestens ein von ihm erzeugtes Schlüsselpaar. Der private Schlüssel wird ausschließlich zum Signieren der digitalen Dokumente verwendet, der öffentliche Schlüssel muss von der nationalen Country Signing CA zertifiziert werden. Die Verwendungsdauer des privaten Schlüssels des Document Signers beträgt maximal drei Monate, so dass im Falle einer Kompromittie- rung des Schlüssels möglichst wenig Pässe von den Auswirkungen betroffen sind. Ent- sprechend muss der zugehörige öffentliche Schlüssel zehn Jahre und drei Monate gültig sein. Der neue ePass soll zwei biometrische Merkmale enthalten, anhand derer der Eigentü- mer identifiziert werden kann. Das ist zum einen ein Bild des Gesichts und zum ande- ren zwei Fingerabdruckbilder. Die Erkennung von Personen anhand von biometrischen Merkmalen ist ein Ansatz zur Authentifizierung von Personen. Biometrie bietet sich in Ergänzung oder als Ersatz herkömmlicher Methoden wie PIN/Passwort und Karte oder anderer Token deshalb an, weil die körperlichen Merkmale im Gegensatz zu Wissens- und Besitzelementen unmittelbar personengebunden sind. Ziel einer biometrischen Er- kennung ist stets, die Identität einer Person zu ermitteln (Identifikation) oder eine be- hauptete Identität zu bestätigen bzw. zu widerlegen (Verifikation).

Verfahren zur Erkennung der Iris wurde erst Mitte der 1980er Jahre entwickelt. Sie ge- nügten ansatzweise den Anforderungen an eine Automatisierung der Gesichtserken- nung, die das US- Verteidigungsministerium 1994 ausschrieb, wodurch es die erste Kommerzialisierungswelle biometrischer Systeme auslöste, an die sich die Entwicklung des Marktwettbewerbs entsprechender Produkte anschloss. Biometrische Merkmale las- sen sich in zwei Merkmalsgruppen einteilen: verhaltenstypische Merkmale und physio- logische Merkmale.

Bei den verhaltenstypischen Merkmalen spricht man von dynamischen Merkmalen, da diese sich abhängig von der Umgebung oder der Verfassung der Person ändern. Verhal- tenstypische Merkmale sind, die Erzeugung einer persönlichen Unterschrift, die Bewe- gung der Lippen beim Sprechen, der Klangcharakter der Stimme, die Gangart und das Tippverhalten an einer Tastatur. Die physiologischen Merkmale sind sogenannte„stati- sche Merkmale“; das bedeutet, dass diese eine nahezu unveränderliche Struktur aufwei- sen. Physiologische Merkmale sind der Fingerabdruck, die Handgeometrie, das heißt beispielsweise Form und Maße der Finger und des Handballens, das Gesicht und die Anordnung der Attribute wie z. B. Nase, Mund, die Iris, deren Gewebemuster vermes- sen werden können, die Venen der Hand oder der Finger, deren Blutgefaßmuster ver- messbar ist, sowie der Geruch, die DNS und das Blut. Auf den biometrischen Reisepass (ePass) bezogen können keine verhaltenstypischen Merkmale zur Erkennung einer Person herangezogen werden. Der Grund ist, dass diese, wie zuvor beschrieben von der Verfassung der Person und der Umgebung abhängig sind. Außerdem können einige Merkmale, wie zum Beispiel eine Unterschrift, durch Übung sehr gut nachgeahmt werden. Bei den physiologischen Merkmalen können keine Merkmale genutzt werden, die einen körperlichen Eingriff erfordern. Das heißt, dass die menschliche DNS und das Blut nicht zur biometrischen Erkennung herangezogen wer- den können.

Daraus resultierend bleiben die folgenden Merkmale als mögliche Merkmale übrig:

-Der Fingerabdruck,

-die Geometrie der Hand,

-das Gesicht,

-die Iris und

-die Blutgefaßmuster.

Aus diesen Möglichkeiten hat sich die Europäische Union dazu entschieden, ein Foto des Gesichts (zur Erkennung der Gesichtsgeometrie) und Fingerabdrücke in die neuen biometrischen Reisepässe aufzunehmen. In Deutschland enthalten die neuen biometri- schen Reisepässe:

-Seit 1. November 2005 ein Bild des Gesichts und

-seit 1. November 2007 zusätzlich zwei Fingerabdruckbilder.

Das Gesichtsbild wurde aufgrund der Empfehlung der UN-Zivilluftfahrt-Organisation (International Civil Aviation Organization, ICAO) ausgewählt.

„Für Fingerabdrücke als zweites Merkmal sprach die hohe Praxistauglichkeit der hierzu entwickelten Abnahme- und Erkennungssysteme. Die Festlegung der EU auf zwei bio- metrische Merkmale war erforderlich, um Flexibilität bei der Kontrolle zu ermöglichen. An Stellen, an denen die Gesichtserkennung nicht praktikabel ist (zum Beispiel bei schlechten Beleuchtungsverhältnissen oder bei Massenandrang), soll eine Verifikation durch Fingerabdrücke möglich sein.“ Zunächst müssen die benötigten biometrischen Merkmale erstmals erfasst werden, um sie später vergleichen und wiedererkennen zu können. Gesichtsmerkmale erfasst zum Beispiel eine Kamera, Fingerabdrücke ein Fingerabdruckscanner. Die Daten für den ePass erfassen die Meldebehörden. Diese sogenannten Rohdaten, also Bilder des Ge- sichts und der Fingerabdrücke, werden auf dem RFID-Chip des ePasses gespeichert und können bei einer Passkontrolle mit den an Ort und Stelle verfügbaren Merkmalen derje- nigen Person verglichen werden, die den Pass vorlegt.

Damit auch computergestützte Systeme diese Daten nutzen können, werden die Rohda- ten mit mathematischen und statistischen Verfahren abstrahiert, sodass die wesentli- chen, charakteristischen Merkmale als sogenannte Referenzmuster oder Templates vor- liegen. Ein Fingerabdruck zum Beispiel wird so aufbereitet, dass man trotz Schmutzpar- tikeln die Rillen der Fingerkuppen gut erkennen und damit auch gut vergleichen kann. Auf dem ePass werden allerdings nicht direkt solche Templates gespeichert, sondern die Rohdaten, weil sich die Berechnungsverfahren international stark unterscheiden.Als Alternative werden auch templatefreie, sogenannte„anonyme Verfahren“ entwickelt, bei denen keine Templates aus Rohdaten erstellt, sondern kryptografische Schlüssel er- rechnet werden. Jedoch steckt diese Entwicklung noch in den Anfangen.Der Vergleich biometrischer Merkmale basiert auf dem Vergleich aktueller biometrischer Daten und Referenzdaten, die zum Beispiel auf dem RFID-Chip des ePass gespeichert werden.

Beim sogenannten „Matching“ wird ein Vergleich zwischen dem gespeicherten Template auf dem ePass und der bei der erneuten Präsentation des Merkmals gegenüber dem biometrischen System erstellt wird, vorgenommen. Bei Übereinstimmung meldet das Gerät, dass das Matching durchführt, die Wiedererkennung der Person, die ihr bio- metrisches Merkmal präsentiert hat.

Bei Veränderung eines biometrischen Merkmals, wie zum Beispiel der Änderung des Fingerabdrucks durch Verletzung eines Fingers, sind die biometrischen Systeme in der Lage die Referenzdaten in der Datenbank anzupassen. Wichtig ist des Weiteren, dass biometrische Merkmale vor dem Zugriff Unbefugter gesichert werden müssen, da diese, wenn sie allgemein bekannt sind, nicht mehr zur Authentifizierung einer bestimmten Person genutzt werden können. Dies müssen entsprechende Systeme sicherstellen.

EasyPASS mit einem Nutzer am Dokumentenlesegerät: Da die Erfassung und der Ver- gleich von biometrischen Merkmalen täglich in großer Menge erfolgt, können hierfür nur computergestützte Systeme eingesetzt werden, da mit Hilfe dieser die Bewältigung in einer akzeptablen Zeit zu bewältigen ist. Exemplarisch soll an dieser Stelle an die Passabfertigung an einem Großflughafen gedacht werden. Bei der Kontrolle eines bio- metrischen Merkmals mit einer Referenzdatenbank bietet der Computer mehrere Vor- teile:

-Immer wiederkehrende monotone Arbeiten werden von computergestützten Systeme in der immer gleichbleibenden Qualität ausgeführt,

-die Geschwindigkeit, mit der die Arbeit durch ein computergestütztes System ausge- führt wird, ist um ein Vielfaches schneller als bei der Ausführung durch eine Person, -das computergestützte System ist, im Vergleich zu einer Person, in der Lage, kleinste Unterschiede der biometrischen Merkmale zu erfassen und

-computergestützte Systeme bieten, in Verbindung mit einer Datenbank, die Möglich- keit, die biometrischen Merkmale vor dem Zugriff von Dritten zu schützen.

Ein exakter Datenabgleich zwischen dem erstmals erfassten Merkmal und einer zu ei- nem späteren Zeitpunkt durchgeführten Erfassung kann nicht erreicht werden. Dies ist darin begründet, das sich zum einen die Merkmale im Laufe der Zeit verändern können. Beispielsweise wird eine Iris mit und ohne Kontaktlinse nicht als identisch erkannt. Zum anderen werden die Merkmale nie auf die gleiche Art und Weise dargebracht. Der Blickwinkel des Gesichts ist bei jeder Messung immer ein wenig unterschiedlich, da ei- ne Person kein starres Objekt ist.

Die tatsächliche Entscheidung, ob eine Übereinstimmung vorliegt oder nicht, beruht auf zuvor eingestellten Parametern, die einen Toleranzbereich bilden, in dem biometrische Daten vom System als„gleich“ erkannt werden. Die biometrischen Merkmale werden nicht auf Gleichheit, sondern nur auf„annähernde Ähnlichkeit“ geprüft. Dies hat zur Folge, dass biometrische Systeme nur mit systemtypischer Wahrscheinlichkeit bestim- men können, ob es sich um die vorgegebene Person handelt.

Fallen die Vergleichswerte außerhalb des zutreffenden Toleranzbereichs, so tritt ein Fehler auf: entweder ein„false reject“ oder ein„false accept“. Die Wahrscheinlichkeit, mit der dies geschieht, wird mit der False Rejection Rate (FRR) oder Falschrückwei- sungsrate bzw. der False Acceptance Rate (FAR) oder Falschakzeptanzrate bezeichnet. Biometrische Verfahren weisen sowohl Vor- als auch Nachteile auf, die im Folgenden erläutert werden:

Vorteile biometrischer Verfahren

-Biometrische Merkmale sind personengebunden. Das bedeutet, dass eine Person an- hand ihrer Individualität erkannt wird. Sie sind mit dem Körper der Person verbunden und müssen nicht künstlich zugeordnet werden wie etwa ein Name. Daraus können ganz neue und einfachere Formen der resultieren Authentifiziemng von Personen geschaffen werden. Hierbei sei an das„Bezahlen per Fingerabdruck“ oder „Zugangskontrolle mit Hilfe der Iris“ gedacht.

-Dem Bedürfnis„In einer zunehmend elektronisch kommunizierenden Welt wächst das Bedürfnis nach vertrauenswürdiger und automatisierter Personenidentifikation.“[28] kann durch den neuen biometrischen Reisepass, also dem ePass, entgegengekommen werden, da mit dessen Hilfe die Identifikation einer Person - mit Unterstützung der In- formationstechnologie - automatisiert durchgeführt werden kann.

Nachteile biometrischer Verfahren

-Für die praxistaugliche Massennutzung biometrischer Systeme muss sichergestellt sein, dass die Fehlerrate solcher Systeme relativ gering ist.

-Die Datensicherheit muss gewährleistet sein. Sollten die auf dem Chip gespeicherten biometrischen Daten in die Hände Dritter gelangen, sind sie kompromittiert und können - im Gegensatz zu kryptografischen Schlüsseln - nicht für ungültig erklärt bzw. neu er- zeugt werden.

-Fehlende Informationstransparenz. Viele Personen sind nicht oder nur unzureichend aufgeklärt, was mit den biometrischen Daten geschieht, wenn die Kontrolle beendet ist. Konkret stellt sich diese Frage beispielsweise bei der Einreise in die USA.

Technische Bedenken

Störsender können die Kommunikation zwischen dem biometrischen Reisepass und dem Lesegerät behindern, was das Auslesen der Daten behindern oder unterbinden könnte. Der auf dem biometrischen Reisepass befindliche Chip kann auf mechanische Weise zerstört werden, indem der ePass geknickt wird oder ein starker Druck auf ihn ausgeübt wird. Es bleibt abzuwarten, ob zum Beispiel das Stempeln des biometrischen Reisepasses ein größeres Problem darstellt. Durch nichtmechanische Weise kann der Chip ebenfalls zerstört werden. Beispielsweise kann die Chip-Oberfläche durch eine elektrostatische Aufladung zerstört werden. Allerdings ist der Aufwand für diese Art der Zerstörung sehr hoch. Biometrische Informationen in MRTDs können nicht wider- rufen werden. Da physische Merkmale wie das Gesicht oder Fingerkuppen nicht ein- fach zu ändern sind, können einmal gestohlene biometrische Merkmale lange Zeit missbraucht werden.

Mehrere Szenarien sind denkbar, um die Sicherheitsfeatures des biometrischen Reise- passes zu umgehen:

-Gefälschte Pässe aus Ländern, die keinen ePass nutzen .Da es immer noch viele Län- der gibt, die keinen ePass einsetzen, ist es bei Kontrolle deren Bürger nicht möglich, auf die biometrischen Pass-Features zurückzugreifen. In diesen Fällen kann ein gefälschter Pass nicht mit Hilfe der biometrischen Daten erkannt werden.

-Einreise über schlecht bewachte Grenzenlllegale Einwanderer werden weiterhin über schlecht bewachte Landesgrenzen kommen. Der ePass wird dies nicht verhindern kön- nen. Die politischen Parteien im Deutschen Bundestag sind sich nicht einig, was die Auf- nahme biometrischer Merkmale in den ePass angeht. Da die Opposition Bedenken ge- gen die Novelle des Passgesetzes hat, wurde diese ohne die Stimmen der Opposition am 24. Mai 2007 von der großen Koalition verabschiedet. [37] Die Novelle des Passgeset- zes beinhaltet die Aufnahme von Fingerabdrücken in Reisepässe als zweites biometri- sches Merkmal.

Ein weiteres Problem stellt der Datenaustausch mit anderen Staaten dar. Grundsätzlich kann nicht garantiert werden, dass andere Staaten die biometrischen Daten des ePasses nicht zentral speichern und nach der Passkontrolle weiterhin, für andere Zwecke, nutzen können. Will die Bundesregierung Spannungen mit anderen Staaten vermeiden, kann sie nur schwer gegen die Nutzung der biometrischen Daten angehen, wenn Bundesbür- ger in andere Staaten einreisen. Allerdings tritt dieselbe Problematik auf, wenn Auslän- der in die Bundesrepublik einreisen und an der Grenze ihre biometrischen Daten über- prüfen lassen.

ePass und Datenschutz/Datenschutzrechtliche Bestimmungen: Zu den Gruppen, die Zu- griff auf biometrische Daten verlangen, gehören u. a. private Unternehmen (z. B. Flug- hafenbetreiber, Fluglinien) und Sicherheitsbehörden (z. B. zur Strafverfolgung). Die Nutzung biometrischer Daten zu diesen Zwecken wird rechtlich legitimiert. Nachfol- gend werden die derzeit gültigen rechtlichen Rahmenbedingungen zur Haltung biome- trischer Daten in staatlichen Ausweisen, deren Nutzung und datenschutzrechtlichen An- forderungen aufgeführt.

Gemäß § 4 Abs. 3 PassG darf der ePass neben dem Lichtbild und der Unterschrift des Passinhabers weitere biometrische Merkmale von Fingern oder Händen oder Gesicht enthalten. Diese dürfen auch in mit Sicherheitsverfahren verschlüsselter Form in den Pass eingebracht werden. Auch die in § 4 Abs. 1 Satz 2 PassG aufgeführten Angaben über die Person dürfen in mit Sicherheitsverfahren verschlüsselter Form in den Pass eingebracht werden. Die drei alternativ festgelegten biometrischen Merkmale sollen eine zweifelsfreie Iden- tifizierung der Passinhaber ermöglichen. Die Verbesserung der Ausweisdokumente durch Aufnahme biometrischer Merkmale gegenüber den bisherigen Ausweisen wird darin gesehen, dass eine Identifizierung durch einen bloßen visuellen Abgleich von Merkmalen von der subjektiven Wahrnehmungsfähigkeit der Kontrollperson abhängt. Die Wahrnehmungsfähigkeit könnte durch weitere Faktoren (z. B. Lichtbildqualität, Differenz zwischen Bild und Wirklichkeit wegen Alter und Änderungen des Erschei- nungsbildes durch Brille, Frisur, Bart) beeinträchtigt werden.

Die Arten der biometrischen Merkmale, ihre Einzelheiten und die Einbringung von Merkmalen und Angaben in verschlüsselter Form nach § 4 Abs. 3 PassG sowie die Art ihrer Speicherung, ihrer sonstigen Verarbeitung und ihrer Nutzung werden durch Bun- desgesetz geregelt. Eine bundesweite Datei wird nicht eingerichtet. Bei diesen biometri- schen Daten handelt es sich gemäß § 4 Abs. 1 Bundesdatenschutzgesetz (BDSG) um personenbezogene (personenbeziehbare) Daten, wodurch ihre Erhebung, Speicherung und Verarbeitung nur zulässig ist, wenn entweder eine gesetzliche Grundlage (in die- sem Fall das PassG) oder eine freiwillige und informierte Einwilligung des Betroffenen vorliegt.

Laut Information des Bundesbeauftragten für den Datenschutz besteht die Möglichkeit eines datenschutzgerechten Einsatzes der biometrischen Daten. Unter datenschutzrecht- lichen Aspekten sollten bei der Verwendung von biometrischen Merkmalen im ePass folgende Punkte Berücksichtigung finden: Es sollten nur solche Verfahren zum Einsatz kommen, die eine Benachteiligung bestimmter Personengruppen weitgehend ausschlie- ßen; nur die für den späteren Vergleich notwendigen Merkmale und keine Überschus- sinformationen aufgenommen und gespeichert werden; wenn von der Anwendung nicht anders vorgegeben, nur Templates der Merkmale gespeichert werden; eine strenge Zweckbindung der Daten sichergestellt sein; die Datensätze nur in einer gesicherten Umgebung (Netzwerk, Datenbank) verarbeitet werden; nach Möglichkeit auf eine zen- trale Speicherung der Daten verzichtet werden, z. B. durch Speicherung der Daten auf einer Chipkarte oder einem Ausweis; nur kooperative biometrische Verfahren einge- setzt werden (die zu überprüfende Person muss aktiv in die Überprüfung einbezogen werden, keine verdeckte Erfassung); eine umfassende Information über die gesamte Anwendung beim beteiligten Personenkreis erfolgten und eine gesetzliche Regelung für den Einsatz vorliegen; die Biometrie nicht dazu herangezogen werden, über Auswer- teprogramme Bewegungs- und Verhaltensprofile zu erstellen; Transparenz der Verfah- ren und der Sicherheitsmechanismen gegeben sein; Schutz der biometrischen Daten vor unbefugter Kenntnisnahme gegeben sein (Einsatz von Verschlüsselung) und eine sofor- tige Löschung der Daten vorgenommen werden, sobald ein Betroffener nicht mehr an der Anwendung teilnimmt.

Gemäß § 16 Abs. 1 PassG dürfen die Seriennummer und die Prüfziffern keine Daten über die Person des Passinhabers oder Hinweise auf solche Daten enthalten; jeder Pass erhält eine neue Seriennummer. Die Beantragung, Ausstellung und Ausgabe von Pässen dürfen nicht zum Anlass genommen werden, die hierfür erforderlichen Angaben außer bei den zuständigen Passbehörden zu speichern. Entsprechendes gilt für die zur Ausstel- lung des Passes erforderlichen Antragsunterlagen sowie für personenbezogene fotogra- fische Datenträger (§ 16 Abs. 2 PassG). Laut § 16 Abs. 3 PassG darf eine zentrale, alle Seriennummem umfassende Speicherung nur bei der Bundesdruckerei und ausschließ- lich zum Nachweis des Verbleibs der Pässe erfolgen. Diese darf jedoch nicht die übri- gen unter § 4 Abs. 1 PassG aufgeführten Angaben dauerhaft speichern. Diese dürfen nur vorübergehend und ausschließlich zur Herstellung des Passes durch die Bundes- druckerei GmbH gespeichert werden und müssen anschließend gelöscht werden.

Die Seriennummem dürfen gemäß § 16 Abs. 4 PassG nicht so verwendet werden, dass mit ihrer Hilfe ein Abruf personenbezogener Daten aus Dateien oder eine Verknüpfung von Dateien möglich ist. Allerdings dürfen die Passbehörden die Seriennummem für den Abruf personenbezogener Daten aus ihren Dateien nutzen. Weiterhin dürfen Poli- zeibehörden und -dienststellen des Bundes und der Länder die Seriennummem für den Abruf der in Dateien gespeicherten Seriennummem solcher Pässe nutzen, die für ungül- tig erklärt wurden, abhandengekommen sind oder bei denen der Verdacht einer Benut- zung durch Nichtberechtigte besteht. Die im Pass enthaltenen verschlüsselten Merkmale und Angaben dürfen gemäß § 16 Abs. 4 PassG nur zur Überprüfung der Echtheit des Dokumentes und zur Identitätsprü- fung des Passinhabers ausgelesen und verwendet werden. Auf Verlangen des Passinha- bers hat die Passbehörde Auskunft über den Inhalt der verschlüsselten Merkmale und Angaben zu erteilen.

Verwendung im öffentlichen Bereich: Behörden und sonstige öffentliche Stellen dürfen gemäß § 17 Abs. 1 PassG den Pass nicht zum automatischen Abruf personenbezogener Daten verwenden. Ausnahmen bilden hier die Polizeibehörden des Bundes und der Länder und die Zollbehörden (soweit sie Aufgaben der Grenzkontrolle wahmehmen). Diese sind dazu berechtigt, den Pass im Rahmen ihrer Aufgaben und Befugnisse zum automatischen Abruf personenbezogener Daten zu verwenden. Diese Berechtigung ist zweckgebunden und darf zur Grenzkontrolle und Fahndung oder Aufenthaltsfeststel- lung aus Gründen der Strafverfolgung, Strafvollstreckung oder der Abwehr von Gefah- ren für die öffentliche Sicherheit erfolgen.

Weiterhin dürfen personenbezogene Daten, soweit gesetzlich nichts anderes bestimmt ist, beim automatischen Lesen des Passes nicht in Dateien gespeichert werden (§ 17 Abs. 2 PassG).

Verwendung im nichtöffentlichen Bereich: Im nichtöffentlichen Bereich dürfen die Se- riennnmmem nicht so verwendet werden, dass mit ihrer Hilfe ein Abruf personenbezo- gener Daten aus Dateien oder eine Verknüpfung von Dateien möglich ist (§ 18 Abs. 2 PassG). Weiterhin darf der Pass weder zum automatischen Abruf personenbezogener Daten noch zur automatischen Speicherung personenbezogener Daten verwendet wer- den (§ 18 Abs. 3 PassG).

Datenschutzrechtliche Kritikpunkte

-Der Bundesbeauftragte für den Datenschutz hält es für notwendig, dass die biometri- schen Daten nur im Pass selbst und nicht in externen Dateien abgespeichert werden. Auf nationaler Ebene wird dieser Forderung durch eine entsprechende gesetzliche Re- gehmg nachgekommen (§ 4Abs. 5 PassG). Weiterhin weist der Bundesbeauftragte für den Datenschutz darauf hin, dass bisher internationale Regelungen zu dieser Problema- tik ausstehen, wodurch die Möglichkeit bestehen würde, dass ausländische Staaten die biometrischen Angaben von Reisenden nach dem Auslesen der Pässe speichern (in Da- teien, Datenbanken).

-Ein weiterer Kritikpunkt aus Sicht des Datenschutzes besteht darin, dass sich aus dem Gesichtsbild Rückschlüsse auf die ethnische Herkunft und bestimmte Krankheiten und Lebensumstände ziehen lassen, die mit Hilfe des neuen biometrischen Passfotos auto- matisiert ausgewertet werden können.

-Hinsichtlich des unberechtigten Auslesens der biometrischen Daten, warnt der Bun- desbeauftragte für den Datenschutz davor, dass das Auslesen der im Chip gespeicherten Daten möglich ist, wenn die maschinenlesbare Zone des Passes bekannt ist. Zur weite- ren Sicherung soll daher die Kommunikation zwischen dem Lesesystem und dem Chip zusätzlich verschlüsselt werden.

-Hinsichtlich der Gefährdung von Grundrechten des Einzelnen ist beim ePass zu beach- ten, dass hier Biometrie nicht freiwillig, sondern unfreiwillig genutzt wird, da der Ein- satz von Biometrie im ePass durch den Staat/ Gesetzgeber vorgegeben wird und somit auch jeder Bürger dazu verpflichtet ist, seine biometrischen Merkmale abzugeben und überprüfen zu lassen.

-Art. 1 Grundgesetz behandelt die geschützte Menschenwürde und könnte den Einsatz neuer Techniken einschränken. Mit diesem Recht soll verhindert werden, dass alle Le- bensäußerungen einer Person mit technischen Mitteln überwacht werden. Die in Art. 1 GG geschützte Menschenwürde wird allerdings erst dann verletzt, wenn eine Kontroll- technik sehr umfangreich und sehr intensiv für die Überwachung genutzt wird.

-Ein weiterer Punkt ist die Vereinbarkeit von Biometrie im ePass mit dem Recht auf in- formationeile Selbstbestimmung. Dieses Recht wurde vom Bundesverfassungsgericht aufgrund der Risiken der automatischen Datenverarbeitung entwickelt und soll die freie Entfaltung der Persönlichkeit und die Menschenwürde wahren. Das Recht auf informa- tionelle Selbstbestimmung soll dem Einzelnen ermöglichen, selbst über die Verwen- dung seiner personenbezogenen Daten zu bestimmen. In dieses Grundrecht darf eine staatliche Anordnung nur in Form eines Gesetzes eingehen (in diesem Fall das PassG).

-Wie die Europäische Union selbst feststellte, kann die Verbindung zwischen Leser und RFID-Chip abgehört und mittels sogenannter„Brute-Force-Attacken“ unter Nutzung bekannter kryptografischer Schwächen gehackt werden.

Ohne ausreichende Sicherheitsmaßnahmen könnten RFID-Chips im Reisepass dazu führen, dass die gespeicherten Daten ohne willentliche und aktive Handlung des Besit- zers (wie dem Vorzeigen des Ausweises) verdeckt ausgelesen werden könnten. Dieses unbemerkte Auslesen könnte zum Beispiel durch den Aufenthalt in einem mit RFED- Lesetechnik bestückten Bereich erfolgen oder durch Annäherung einer Person mit ei- nem mobilen Lesegerät auf kurze Distanz zum Betroffenen und seinem Reisepass. Das Ansprechen des Chips und damit das unbemerkte Auslesen der elektronisch gespeicher- ten Daten per RFID-Technik kann allerdings recht einfach durch eine abschirmende RFID-Schutzhülle für den Reisepass ausgeschlossen werden.

Bei europäischen Reisepässen soll das Auslesen durch Unbefugte allerdings durch das Basic-Access-Control-Verfahren unterbunden werden. Dabei ist das Auslesen des Chips möglich, wenn zuvor die maschinenlesbare Zone des Passes optisch gelesen wurde, das Dokument also einem Beamten oder einer im Besitz eines Lesegerätes be- findlichen Person ausgehändigt wurde. Alternativ können die Daten des maschinenles- baren Bereichs auch aus einer Datenbank stammen, was ein verdecktes Detektieren ei- nes bestimmten, erwarteten Dokuments ermöglicht. Das Lesegerät muss sich mit den Daten aus der maschinenlesbaren Zone am RFID-Chip anmelden. Schlägt diese An- meldung fehl, so gibt der Chip keine Daten seines Inhabers preis. Weiterhin sollen nur dafür vorgesehene Lesegeräte den Chip auslesen können; die Kommunikation zwischen Lesegerät und Chip erfolgt verschlüsselt. Das Verfahren stellt sicher, dass keine perso- nenbezogenen Daten gelesen werden können, die nicht schon zuvor bekannt sind.

Einige empfinden auch die bestimmungsgemäße Verwendung des ePasses als Sicher- heitsrisiko für den Schutz der persönlichen Daten. Jedes Land, das die entsprechenden Lesegeräte angeschaffi hat, kann die mit Biometrie-Technik nutzbaren Daten des Passes auslesen, speichern und verarbeiten, ohne dass der Benutzer dies bemerkt. Technisch kann dies verhindert werden: Der RFID-Chip lässt sich in einer handelsüblichen Mi- krowelle zerstören. Dazu wird der ePass hineingelegt und der Einschalter nur für Bruchteile von Sekunden eingeschaltet. Danach ist der Chip in der Regel zerstört. Dabei kann allerdings durch ein kurzes Aufflammen des RFID-Chips der Pass zerstört wer- den. Der Pass behält im Prinzip seine Gültigkeit, da er bei Lesbarkeit der Daten weiter- hin eine Identifikation der Person ermöglicht. Diesem Vorgehen wird entgegengehalten, dass es sich bei Zerstörung des Chips um Sachbeschädigung handele, da der Reisepass Eigentum des ausstellenden Staates sei. In Deutschland droht bei Veränderung amtli- cher Ausweise eine Geld- oder Haftstrafe. Staaten, die biometrische Daten bei der Ein- reise vorschreiben, können bei funktionslosem Chip die Abgabe biometrischer Merk- male mit entsprechenden Sensoren vor Ort verlangen. Bei der Einreise in die USA sind dies beispielsweise eine digitale Fotografie und die Abnahme mindestens zweier Fin- gerabdruckbilder.

Der deutsche Anwalt Udo Vetter klagte im Jahr 2007 gegen die Stadt Bochum auf Er- teilung eines Reisepasses ohne Erfassung seiner Fingerabdrücke. Zu dieser Klage er- folgte im Mai 2012 ein Beschluss des Verwaltungsgerichts Gelsenkirchen, das dem Eu- ropäischen Gerichtshofs (EuGH) verschiedene Fragen zur Vorabentscheidung vorlegte, nämlich ob die Rechtsgrundlage für die Fingerabdruckpflicht unzureichend sei, ein Ver- fahrensfehler beim Erlass der europäischen Verordnung Nr. 2252/2004 in geänderter Fassung vorliege und/oder ob ein Verstoß gegen Art. 8 der Charta der Grundrechte der Europäischen Union vorliege. Nach den Schlussanträgen des Generalanwalts Mengozzi hat der Europäische Gerichtshof 2013 entschieden, dass die Speicherung digitaler Fin- gerabdrücke auf EU-Reisepässen zulässig ist. Bereits im September 2011 hatte das Verwaltungsgericht Dresden die Pflicht zur Spei- cherung der Fingerabdrücke im Reisepass als zulässig beurteilt. Die Juristin und Schriftstellerin Juli Zeh, die insbesondere ihr Grundrecht auf Menschenwürde verletzt sieht, hat am 28. Januar 2008 Verfassimgsbesch werde gegen die Einführung biometri- scher Merkmale in Reisepässen mit dem Antrag erhoben, die entsprechenden Regelun- gen im Passgesetz für nichtig zu erklären. Am 30. Dezember 2012 urteilte das Bundes- verfassungsgericht, der vorgelegten Beschwerde fehle eine„genügende Begründung“, weshalb sie„aus formellen Gründen nicht anzunehmen“ sei.

Seit dem 1. November 2007 werden in den Chips zusätzlich die Fingerabdruckbilder von zwei Fingern gespeichert. Einige Auslandsvertretungen meldeten in diesem Zu- sammenhang technische Probleme und nahmen ab Mitte Oktober 2007 für mehrere Monate keine neuen Anträge an. In dieser Zeit konnten dort nur vorläufige Reisepässe ausgestellt werden. Diese technischen Probleme bezogen sich allerdings nicht auf den Chip oder das Dokument, sondern auf die technische Ausstattung der Botschaften und Konsulate, in denen die für die Ausstellung der Dokumente notwendige Infrastruktur (Software und Geräte) fehlte. Hintergrund war die Tatsache, dass ein bei der vom Aus- wärtigen Amt für die Beschaffung der Fingerabdruckscanner durchgeführten Aus- schreibung unterlegener Anbieter gegen diese Vergabeentscheidung geklagt hatte. Obwohl das Auswärtige Amt - wie in der späteren Gerichtsentscheidung festgestellt wurde - die Vergabe korrekt abgewickelt hatte, führte dies zu deutlichen Verzögerun- gen bei der Beschaffüng der Geräte.

Gleichzeitig entfiel zu diesem Zeitpunkt die Möglichkeit, Kinder mit im Pass eintragen zu lassen. Das Feld Ordens- oder Künstlername entfiel ersatzlos (auf Druck der katholi- schen Kirche sowie von Künstlerverbänden auf das Bundesinnenministerium wurde dieses Feld bei der Neufassung des Personalausweisgesetzes 2008 wieder eingeführt). Die Gültigkeitsdauer für Pässe jüngerer Antragsteller unter 24 Jahren wurde von fünf auf sechs Jahre angehoben. Antragsteller ab dem 24. Lebensjahr (bislang 26. Lebensjahr) erhalten nunmehr einen für zehn Jahre gültigen Reisepass. Die EU- Amtssprachen Rumänisch und Bulgarisch wurden im Pass aufgenommen. Auf der letz- ten Vorsatzseite wurde eine„Gebrauchsanweisung“ eingefügt. Die Seriennummem wurden auf zufällig zu vergebende alphanumerische Seriennummem umgestellt.

Alphanumerische Seriennummem beim ePass: Die Seriennummem enthalten seit dem 1. November 2007 alphanumerische Seriennummem. Diese alphanumerischen Zeichen setzen sich zusammen aus der vierstelligen Behördenkennzahl (alphanumerisch), einer zufälligen fünfstelligen alphanumerischen Passnummer (ZAP), gefolgt von einer Prüfziffer.

-Die Behördenkennzahl (BHKZ) als Bestandteil der Pass-Seriennummer beginnt zwin- gend mit einem Buchstaben und zwar mit einem der Zeichen C, F, G, H, J oder K; zu- nächst wird nur das C verwendet.

-Die Passnummer (fünfstellig) als Bestandteil der Seriennummer wird zentral durch die Bundesdruckerei erzeugt.

-Zulässig für die Seriennummer des Reisepasses sind nur die Ziffern 0, 1, 2, 3, 4, 5, 6, 7, 8, und 9 sowie die Buchstaben C, F, G, H, J, K, L, M, N, P, R, T, V, W, X, Y und Z. Eine Verwechslung der Zahl„0“ mit dem Buchstaben„O“ ist damit ausgeschlossen. -Alphanumerische Seriennummem werden im ePass (auch mit 48 Seiten sowie im Ex- press-Pass), im Dienstpass und im Diplomatenpass verwendet.

119. Steuerungstechnik

Weitere Ausführungsformen für die Erfindung:

Weitere Ausführungsformen für die Erfindung:

Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element als Steuer- und/oder Regelungs- und Messtechnik- und/oder Sensorelement und/oder Verwendung des elektronischen Elementes (E), wenigstens ein Steuer- und/oder Rege- lungs- und Messtechnikgerät und/oder einen Sensor enthaltend, zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtechnik, wobei das elektronische Element wenigstens eines der folgenden technischen Merkmale ent- hält: Steuerungstechnik umfasst den Entwurf und die Realisierung von Steuerungen, das heißt, die gerichtete Beeinflussung des Verhaltens technischer Systeme (Geräte, Appa- rate, Maschinen, Anlagen und biologische Systeme). Sie ist, wie die Regelungstechnik, ein Teilgebiet der Automatisierungstechnik. Steuerungen werden unterteilt in binäre, analoge und digitale Steuerungen.

In Binär-Steuerungen sind die Ein- und die Ausgangsgrößen der Steuereinrichtungen binär. Die Beeinflussung des zu steuernden Systems (Steuerstrecke) erfolgt über die bi- nären Ausgangsgrößen der Steuerung mittels der Aktoren. Beispiele für Aktoren sind eine Leuchte, ein Ventil oder ein Motor. Die binären Eingangsgrößen der Steuerung sind Bediensignale vom Menschen und Rückmeldesignale von Sensoren aus der Steu- erstrecke, zum Beispiel die Schalterstellung (Ein/Aus), die Ventilstellung (Of- fen/Geschlossen) oder der Bewegungszustand des Motors (Drehend/Stehend). Gesteuert werden zum Beispiel eine Beleuchtung, ein Wasserfluss oder die Bewegung eines Fahr- zeug-Antriebs.

Man unterscheidet bei Binär-Steuerungen zwischen Verknüpfungs- und Ablaufsteue- rungen. Bei Ablaufsteuerungen werden relevante Werte der Steuergrößen an den Ein- gang der Steuerung mittels Sensoren rückgemeldet. Wenn dagegen Rückmeldungen fehlen, spricht man von Verknüpfungssteuerungen, deren Arbeitsweise binär oder mehrwertig ist. Kennzeichen der Informationsverarbeitung in komplexen binären Steue- rungen sind im Steuerprogramm enthaltene logische Verknüpfungen zwischen den Ein- gangssignalen (einschließlich der rückgemeldeten Signale von den Sensoren). Die Be- schreibung und Berechnung binärer Steuerungen kann daher durch Mittel der binären Mathematik erfolgen.

In analogen Steuerungen sind die Ein- und Ausgangsgrößen der Steuereinrichtung Ana- logsignale; diese Steuerungen besitzen keine Rückkopplungen. Beispiel einer analogen Steuerung ist die stetige Veränderung einer Hebelstellung beim Drehen einer Kurven- scheibe, an der der Hebel anliegt. Analoge Steuerungen können als Regelungen durch Differentialgleichungen beschrieben werden. Eine Steuerung wird digitale Steuerung genannt, wenn in ihr Digitalsignale verarbeitet werden. Digitale Signale sind Mehr- bitsignale, deren Einzelbits Bestandteile einer codierten Informationsdarstellung sind. Zur Verarbeitung digitaler Signale sind Steuerungsbefehle mit Byte- bzw. Wortoperan- den, sogenannte Wortanweisungen, erforderlich.

Heute sind die meisten Steuerungen binär oder digital, wobei die Ablaufsteuerungen bei weitem überwiegen (mehrere Steuergrößen werden nacheinander beeinflusst). Sie ha- ben mehrere oder sogar viele Ein- und Ausgänge. Außer dem Startsignal sowie weite- ren Bediensignalen stammen die Eingangssignale nicht vom Bediener, sondern aus der Steuerstrecke, und sind mit Sensoren erfasste und rückgemeldete (feedback) Zustände der Steuergrößen. Der jeweilige Folgeschritt im Ablauf wird immer erst dann ausge- fuhrt, wenn der vorhergehende Schritt abgeschlossen ist. Somit liegen aufeinander fol- gende geschlossene Teil-Steuerkreise vor, die aber nicht mit dem nicht unterteilten ge- schlossenen Regelkreis zu verwechseln sind. Dessen Zweck ist eine bei Störungen statt- findende technische "Selbstkorrektur" der Regelgröße. Steuerungen, die zusätzlich ge- gen Störungen ausgelegt sind, bewirken bei gefährlichen Werten der Steuergrößen, dass der zu steuernde Prozess in einen sicheren Zustand überführt oder abgeschaltet wird.

Zur Bewältigung der Komplexität moderner Steuerungen gibt es für deren Entwurf spe- zielle methodische Hilfen in Form verschiedener theoretischer Modelle sowie entspre- chender computergestützter Werkzeuge. Solche Werkzeuge (Tools) werden auch für Simulation, Planung, Projektierung, Programmierung und Service (Fehlerdiagnose, Wartung und Instandsetzung) verwendet. Die bedeutende Rolle der Steuerungstechnik in der industriellen Entwicklung wird auch im Zukunftsprojekt Industrie 4.0 der Deut- schen Bundesregierung und Industrie deutlich, wobei vier Stufen der Industriellen Re- volution unterschieden werden:

-Stufe 1: Beginn 1784 mit dem Einsatz von mechanischen Webstühlen, die insbesonde- re durch hölzerne Lochkarten-Steuerungen und später durch Steuerungen mit umlau- fenden Bändern zu Webmaschinen weiterentwickelt wurden. -Stufe 2: Beginn 1870 mit dem ersten Einsatz von Fließbändern in den USA (Schlacht- höfe von Cincinnati) unter Nutzung elektrischer Antriebe, die durch entsprechende Schütz- und Relais-Steuerungen geschaltet wurden.

-Stufe 3:Beginn 1969 mit den ersten Speicherprogrammierbaren Steuerungen des US- amerikanischen Unternehmens Modicon (Typ Modicon 084, Erfinder: Richard E. Mor- ley), die einen Durchbruch bei der Industrieelektronik und Informationstechnik zur massenweisen Steuerung und Automatisierung der Produktion markieren.

Stufe 4: Industrie 4.0, Beginn 2012 mit Entwicklung und Einsatz sogenannter Cyber- Physikalischer Systeme (CPS) mit globaler Vernetzung zur global optimierten Steue- rung der international organisierten Produktion (Internet der Dinge). Dieser schrittweise Übergang von der dritten zur vierten Stufe wird seit 2013 mit der Hannover Messe jähr- lich anwachsend einer breiten Öffentlichkeit zugänglich gemacht.

Die Theorie der Steuerungstechnik blieb bis heute hinter der der Regelungstechnik zu- rück, was sich unter anderem auch in der mangelhaften Normung beziehungsweise De- finition einschlägiger Begriffe niedergeschlagen hat.

Die DIN-Normung hat über viele Jahre zwischen Regelung als geschlossener Kreis und Steuerung als offene Kette unterschieden. Da es in der digitalen Steuerungstechnik auch geschlossene Teil-Kreise gibt, wurde die Steuerung 1994 in der dritten, heute gültigen Ausgabe der DIN 19226 (Regelungs- und Steuerungstechnik, seit 2002 unverändert er- setzt durch DIN-IEC 60050-351) neu definiert:„Kennzeichen für das Steuern ist der of- fene Wirkungsweg oder ein geschlossener Wirkungsweg, bei dem die durch Eingangs- größen beeinflussten Ausgangsgrößen nicht fortlaufend und nicht wieder über dieselben Eingangsgrößen auf sich selbst wirken“. Wesentlich ist der Nebensatz ... die durch Eingangsgrößen beeinflussten Ausgangsgrößen nicht fortlaufend und nicht wieder über dieselben Eingangsgrößen auf sich selbst wirken. Die Gegenüberstellung offener oder geschlossener Wirkungsweg (Steuerung) zu geschlossener Kreis (Regelung) hat mehr zu Verunsicherung als zu Klärung beigetragen.

In der Steuerungsnorm DIN 19237 wurden bereits die verschiedenen Arten zur Pro- grammverwirklichung durch verbindungsprogrammierte und speicherprogrammierbare Steuerungen klassifiziert. Die Norm DIN 19239: "Messen, Steuern, Regeln - Steue- rungstechnik - Speicherprogrammierte Steuerungen - Programmierung" wurde von der Deutschen Kommission Elektrotechnik Elektronik Informationstechnik erstellt. Der er- ste Entwurf wurde 1981 veröffentlicht und 1983 durch eine freigegebene Version er- setzt. DIN 19239 definierte drei Programmiersprachen für Steuerungen:

-Anweisungsliste (AWL),

-Kontaktplan (KOP),

-Funktionsplan (FUP).

Die DIN 19239 wurde im Jahre 1994 zurückgezogen und durch eine DIN auf Basis der gleichlautenden Europanorm DIN EN 61131-3 abgelöst. Hierin sind zusätzlich zu den genannten drei noch zwei weitere Programmiersprachen enthalten, also insgesamt fünf: -Ablaufsprache (SFC, Sequential Function Chart)

-Strukturierter Text (ST).

Die hieraus hervorgegangene internationale Norm IEC 61131-3 (auch EEC 1131 bzw. 61131) ist die einzige weltweit gültige Norm der Programmiersprachen für Speicher- programmierbare Steuerungen.

Wesen binärer Steuerungen: Eine binäre Steuerung bzw. das binäre Steuern ist gemäß DIN 19226, 3. Ausgabe 1994, Teil 1 bzw. DIN IEC 60050, Teil 351 ein Vorgang in ei- nem System, bestehend aus einer Steuereinrichtung und einer Steuerstrecke, bei dem eine oder mehrere Prozessgrößen in der Steuerstrecke, die als Steuergrößen bezeichnet werden, durch binäre Ausgangsgrößen der Steuereinrichtung (auch Stellsignale ge- nannt) entsprechend einem vorgegebenen Steueralgorithmus (Steuerprogramm) beein- flusst werden. Die Eingangs- und Ausgangsgrößen sind binäre Signale. Es handelt sich dabei um wertdiskrete Größen, deren Informationsparameter nur zwei Werte annehmen können, die mit 0 und 1 bezeichnet werden. Bei den binären Eingangssignalen muss zwischen Bediensignalen, die über Bedieneinrichtungen wie Schalter oder Taster eingegeben werden, und binären Messsignalen unterscheiden werden, die mittels Sensoren (wie Endlagen-Schalter oder Licht-Schranken) erfasst werden.

Aus den binären Eingangssignalen der Steuereinrichtung werden entsprechend dem Steueralgorithmus durch logische Verknüpfung als Ausgangssignale binäre Stellsignale gebildet, die über Aktoren (auch als Aktuatoren bezeichnet, z. B. Relais-Schalter, Schalt-Schütz, Magnet-Ventil oder Motor) auf das Steuerungsobjekt (technologischer Prozess, Steuerstrecke) einwirken und hierdurch Steuergrößen (Ausgänge des technolo- gischen Prozesses) verändern.

Die Steuergrößen können entweder wertdiskrete Größen (z. B. Signale zum Ein- und Ausschalten einer Beleuchtung mittels einer Wechsel- oder Kreuzschaltung) oder ana- loge, d. h. wert- und zeitkontinuierliche Größen sein (z. B. Temperatur, Druck, Füll- stand, Weg, Winkel, Drehzahl). Der Signalfluss in Steuerungssystemen kann zwei un- terschiedliche Grundstrukturen aufweisen:

-offene Steuerkette, wobei die Sensoren ihre Informationen (Messsignale) aus der Um- gebung entnehmen, nicht aber aus dem technologischen Prozess (Steuerstrecke), -geschlossener Steuerkreis, wobei die Sensoren ihre Informationen (Rückmeldungen: binäre Signale) aus dem technologischen Prozess entnehmen (Ablaufsteuerung).

Den überwiegenden Anteil aller Steuerungsarten in den praktischen Anwendungen stel- len die Ablaufsteuerungen dar. Man unterscheidet hierbei prozessgefuhrte und zeitge- fuhrte Ablaufsteuerungen.

Neben„Verknüpfungs- und Ablaufsteuerungen“ existieren noch Steuerungen, in denen keine Sensorsignale (also keine Rückmeldungen) einbezogen werden und die nur einen Zeitplan (Zeitprogram ) oder Wegplan (Wegprogramm) über ihre Ausgänge und die nachgeschalteten Aktoren abarbeiten: -Zeitprogramm-Steuerung: Ablauf der Ereignisse nach einem vorgegebenen Zeitplan, z. B. bei einer einfachen Verkehrsampel

-Wegprogramm-Steuerung: Ablauf der Ereignisse nach einem vorgegebenen Wegplan, z. B. bei einer Kopier-Fräsmaschine oder Kopier-Drehmaschine.

Diese Zeitplan- und Wegplansteuerungen nehmen als offene Steuerungen (Programm- steuerungen) einen relativ geringen Anteil aller Steuerungsarten ein.

Seit etwa 1995 wird in der Fachliteratur versucht, Steuerung genauer zu beschreiben, um einerseits ihr Verhältnis zur Regelung deutlicher darzustellen und um andererseits die verschiedenen Arten von Steuerung deutlicher voneinander abzugrenzen: Zander, Töpfer (1996), Lunze (2003), Langmann (2004), Litz (2005), Heimbold (2015). Von Wellenreuther/Zastrow (1995) und Bergmann (1999) wird die Definition von Verknüp- fungssteuerungen gegenüber der DIN 19226 etwas präziser gefasst, indem zwischen Verknüpfungssteuerungen ohne und mit Speicherverhalten unterschieden wird.

Von Zander stammt eine neuartige Betrachtungsweise der Wirkungsabläufe von Ab- laufsteuerungen, die auf der Basis einer umfassenden Struktur- und Verhaltensanalyse von Steuerstrecken entwickelt wurde. Für die Vorgänge in Ablaufsteuerungen wird der Begriff„Ereignisdiskreter Prozess“ als Präzisierung des früher verwendeten Begriffs „Diskontinuierlicher Prozess“ eingefuhrt. Es wird davon ausgegangen, dass die Steuer- größen bei Ablaufsteuerungen überwiegend analoge Größen sind, z. B. Drücke, Tempe- raturen, Füllstände, Wege, Winkel, Drehzahlen. Ein wesentliches Merkmal dieser Be- trachtungsweise ist, dass während des Ablaufs eines ereignisdiskreten Prozesses die von der Steuereinrichtung ausgegebenen binären Stellsignale im Sinne von Sprungfunktio- nen auf die analogen Steuergrößen wirken und dass deren Funktionswerte sich dadurch im Sinne von Sprungantworten entsprechend dem jeweiligen Zeitverhalten ändern.

So weist z. B. die Änderung des Füllstandes beim Füllen eines Behälters ein I- Verhalten auf. Für die Steuergrößen sind entsprechende Schwellwerte festzulegen. Er- reicht eine Steuergröße einen für sie vorgesehenen Schwellwert, dann wird das binäre Stellsignal, das die Veränderung der Steuergröße verursacht hat, von der Steuereinrich- tung auf den Wert Null gesetzt. Gemäß dem in der Steuereinrichtung implementierten Steueralgorithmus wird dann das nächste Stellsignal ausgegeben und der ereignisdiskre- te Prozess somit fortgesetzt.

Das Erreichen eines Schwellwertes einer Steuergröße wird als„Ereignis“ bezeichnet. Daraus erklärt sich der Name„Ereignisdiskreter Prozess“. Ein Ereignis liegt auch vor, wenn eine Bedienhandlung ausgefuhrt wird oder eine vorgegebene Zeitdauer in einem Zeitglied abgelaufen ist. Beim Auftreten eines Ereignisses wird in einem ereignisdiskre- ten Prozess definitionsgemäß ein Operationswechsel eingeleitet. Die Ereignisse werden zu diesem Zweck durch so genannte Ereignissignale an die Steuereinrichtung gemeldet. Ereignissignale sind also binäre Messsignale, binäre Bediensignale und binäre Aus- gangssignale von Zeitgliedem.

Auf dieser Basis werden Ablaufsteuerungen, d. h. Steuerungen ereignisdiskreter Pro- zesse, wie folgt definiert (Zander): Eine Ablaufsteuerung ist ein Vorgang, bei dem durch ein in der Steuereinrichtung eintreffendes Ereignissignal gemäß dem implemen- tierten Steueralgorithmus ein binäres Stellsignal gebildet und dadurch eine Sprungfunk- tion auf eine analoge Steuergröße ausgeübt wird, so dass diese Steuergröße solange eine Sprungantwort ausfuhrt und damit eine Operation abläuft, bis erneut ein auf sie bezoge- nes Ereignissignal eintrifft, das ein Beenden der laufenden Sprungantwort zur Folge hat und zum Aktivieren weiterer Sprungfunktionen der Steuereinrichtung fuhrt usw.Kennzeichen von Ablaufsteuerungen sind aufeinander folgende geschlossene Teil- kreise (feedback) und überwiegend analoge Steuergrößen.

Beispiele für Ablaufsteuerungen:

-Waschmaschinensteuerung: Bei einem Waschautomaten werden Wasserzufluss, Waschmittelzugabe, Heizung und Elektromotor für die Bewegung der Trommel von ei- ner Steuerung durch Verarbeitung von Informationen über Wasserstand, Temperatur und Zeit in Verbindung mit einem gewählten Steuerprogramm derart in Gang gesetzt und angehalten, dass saubere und geschleuderte bzw. getrocknete Wäsche entsteht. -Aufzugsteuerung -Mediensteuerung: Audio-, Video- und Lichtsteuerung während einer Show.

Im Unterschied zu Ablaufsteuerungen werden in Verknüpfungssteuerungen nicht vor- wiegend analoge Steuergrößen, sondern ausschließlich wertdiskrete (z. B. binäre) Steu- ergrößen als Ausgänge der Steuerstrecke in ihren Werten verändert. Dazu werden in der Steuereinrichtung durch logische Verknüpfung der binären Eingangssignale binäre Stellsignale erzeugt, die das Schalten der Steuergrößen bewirken. Eine Rückmeldung über eine ausgeführte Schalthandlung von den Ausgängen der Steuerstrecke zu den Eingängen der Steuereinrichtung existiert bei Verknüpfungssteuerungen nicht.

Auf dieser Basis werden "Verknüpfungssteuerungen" wie folgt definiert (Zander):

Eine Verknüpfungssteuerung ist ein Vorgang, bei dem bei einer Werteänderung von bi- nären Bedien- und/oder Messsignalen durch logische Verknüpfung, gegebenenfalls un- ter Einbeziehung von inneren Zuständen, gemäß einem Steuerprogramms eine Werte- änderung von binären Stellsignalen eintritt, wodurch eine oder mehrere zwei- bzw. mehrwertige Steuergrößen am Ausgang der Steuerstrecke beeinflusst werden, so dass diese den für sie durch den Steueralgorithmus vorgeschriebenen Wert annehmen.

Kennzeichen der Verknüpfungssteuerung sind ein offener Wirkungsablauf und binäre oder mehrwertige Steuergrößen.

Die Einbeziehung innerer Zustände kann durch Verwendung von Speicherelementen er- folgen. Verknüpfungssteuerungen können demzufolge kombinatorische Systeme (ohne Speicher) oder sequentielle Systeme (mit Speichern) sein.

Beispiele für Verknüpfungssteuerungen:

-Wechsel- oder Kreuzschaltungen für das Ein- und Ausschalten von Leuchten oder Ag- gregaten durch Schalter an verschiedenen Orten (kombinatorische Verknüpfungssteue- rung).

-Umschalten einer Signalleuchte zwischen Ruhelicht, schnellem Blinklicht, Dauerlicht und langsamen Blinklicht zur Anzeige einer aufgetretenen bzw. beseitigten Störung in Abhängigkeit von einer noch nicht erfolgten bzw. durchgeführten Quittierung (sequen- tielle Verknüpfungssteuerung). Binärsteuerungen und Regelungen unterscheiden sich vor allem in folgender Hinsicht: -Ziele (Aufgaben): Steuerungen bewirken bestimmte Abläufe in den Steuerungsobjek- ten (gesteuerten Prozessen), Regelungen dagegen sorgen für die Prozess-Stabilisierung bei Vorliegen von Störgrößen.

-Informationsverarbeitung: In Steuerungen werden überwiegend logische Verknüpfun- gen von binären Signalen durchgeführt (UND, ODER, NICHT, Zählen, Speichern, Zeitfunktionen), in Regelungen werden hauptsächlich arithmetische Funktionen zwi- schen analogen Größen ausgefuhrt (Differenzbildung, Multiplikation, Integration, Dif- ferentiation). Deshalb lassen sich für die Beschreibung und Berechnung von Regelun- gen Differentialgleichungen verwenden, während zur Beschreibung und Berechnung von Steuerungen die Mittel der binären Mathematik verwendet werden müssen. In Be- tracht kommen hierfür insbesondere die Schaltalgebra, die angewandte Automatentheo- rie und die Theorie der Petri-Netze.

-Anzahl der Eingänge und Ausgänge: Industrielle Steuerungen verfugen über eine Viel- zahl von Eingängen und Ausgängen (typisch 10 bis 100 und darüber). In der Rege- lungstechnik dominieren dagegen Eingrößen-Regelungen, d. h. Regeleinrichtungen mit einer einzigen Regelgröße als Eingang und einer einzigen Stellgröße als Ausgang. Sel- tener sind Mehrgrößen-Regler, die prinzipiell mehrere Eingänge (Regelgrößen) und mehrere Ausgänge (Stellgrößen) aufweisen, wenngleich auch nicht so viele wie Steue- rungen.

In der englischsprachigen Fachliteratur wird undifferenziert sowohl für Regelung als auch für Steuerung das Wort„control“ verwendet. Dieser Begriff wird oft einfach mit „Steuerung“ übersetzt. Um richtig übersetzen zu können, ist daher die Kenntnis des Kontextes erforderlich. Die englische Entsprechung für „Speicherprogrammierbare Steuerung (SPS)“ ist„Programmable Logic Controller (PLC)“, was sehr viel präziser als das deutsche SPS ist, weil die logische Verknüpfung in der Steuerung als wesentli- ches Merkmal herausgestellt wird, die Speicherung des Programms dagegen unbetont bleibt.

Vorteile von Steuerungen:

-Die Wirkungsabläufe sind leicht überschaubar.

-Bei Auftreten einer Störung kann manuell auf den Prozess eingewirkt werden.

-Es können kein instabiles Verhalten und keine schädigenden überhöhten Amplituden der Steuergröße durch falsch angepassten Regler auftreten.

-Eine besondere Messeinrichtung für eine Rückmeldung der Steuergröße y ( t ) {\displaystyle y(t)} ist nicht erforderlich.

Nachteile von Steuerungen:

-Nur bekannte messbare Störungen können durch geeignete Maßnahmen kompensiert werden.

-Die Steuerstrecke muss sehr gut bekannt sein, wenn eine Störungskompensation in gewünschter Weise wirksam sein soll.

-Es erfolgt keine Rückmeldung, ob die Führungsgröße u ( t ) {\displaystyle u(t)} durch die Ausgangsgröße y ( t ) {\displaystyle y(t)} erreicht wurde.

Die Vor- und Nachteile von Regelungen sind im Artikel Regelungstechnik beschrieben. Mit diesen jüngsten Darstellungen wird ein jahrzehntelanges Versäumnis, die Steue- rungstechnik in ihrem Wesen der Allgemeinheit verständlich zu machen, nachgeholt. Die Unterscheidung von Steuerung und Regelung hinsichtlich Zielstellungen, spezifi- schen Informationsverarbeitungen sowie Anzahl der Ein- und Ausgänge wird deutli- cher. Insbesondere wird dem Eindruck entgegengewirkt, dass das Kennzeichen einer Steuerung im Vergleich zum Regelkreis die offene Kette sei. Der grundlegende Er- kenntniszuwachs wurde möglich durch vermehrte Anwendung der SPS-Technologien als Basis geschlossener Ablaufsteuerungen und durch Fortschritte bei den Theorien, Methoden und rechnergestützten Werkzeugen für Steuerungen ereignisdiskreter Prozes- se. Die Verbindungsprogrammierte Steuereinrichtung (VPS) wird auch kurz verbindungs- programmierte Steuerung genannt. Anmerkung: Beim Begriff Steuerung handelt es sich eigentlich um einen Vorgang und nicht um ein Gerät. Das Steuer-Gerät dagegen ist die Steuereinrichtung, die jedoch verkürzt auch als Steuerung bezeichnet wird, sodass es zu Verwechselungen kommen kann.

Gerätetechnische Ausführungen von Verbindungsprogrammierten Steuereinrichtungen sind beispielsweise:

-mechanische Steuerung: z. B. Stiftwalzen einer Drehorgel, Kurvenscheibe,

-elektrische Steuerung: z. B. Kontakte und Relais,

-pneumatische oder hydraulische Steuerung,

-elektronische Steuerung: z. B. Logikgatter, Programmierbare logische Schaltung.

Die Speicherprogrammierbare Steuereinrichtung (SPS) wird auch kurz Speicherpro- grammierbare Steuerung genannt. Der Plural Speicherprogrammierbare Steuereinrich- tungen wird mit SPSen abgekürzt. Die SPS ist im Prinzip ein Mikrocontroller mit ent- sprechenden Speichern für Steuerungsprogramm und Steuerungsparameter sowie zuge- hörigen Eingängen für Sensorsignale und Ausgängen für Aktorsignale, ergänzt durch Mensch-Maschine-Schnittstellen zur Bedienung sowie Schnittstellen zur industriellen Kommunikation für Programmierung und Vernetzung.

Die SPS ist heute die am meisten verwendete Steuerungsart. Sie ist im Prinzip auch als Regler verwendbar, da die Arithmetik-Logik-Einheit (ALU) des internen Mikroprozes- sors bei der Informationsverarbeitung sowohl die logischen Steuerungsaufgaben als auch die arithmetischen Regelungsaufgaben lösen kann.

Die SPS bildet daher zugleich auch die Basis für eine zeitgemäße Leittechnik für die Automation in der Volkswirtschaft. Somit haben sich die SPSen wegen ihres universel- len Charakters zu einem Massenprodukt entwickelt, das weltweit in Millionenstückzah- len hergestellt wird. Sie ermöglichen daher eine Massenanwendung der Automation, verbunden mit deren Breitenanwendung in allen Bereichen der Volkswirtschaft und in vielen Bereichen von Konsumgütem. Die SPS-Technologie hat wesentlich dazu beigetragen, die Abgrenzung zwischen Steuerung und Regelung einerseits begrifflich zu klären, andererseits gerätetechnisch zu überwinden. Dieser Entwicklungsprozess hat schließlich auch zu Auswirkungen auf die Philosophie und die Methodik der Entwurfsprozesse für Steuerungen und Regelungen geführt. Im Ergebnis ist eine weitgehende methodische Vereinheitlichung erreicht wor- den, ohne dabei deren innere Spezifik aufzuheben und ohne die PC-gestützten Ent- wurfswerkzeuge gleichzuschalten.

Beim Entwurf von Steuerungen geht es darum, für eine informell vorgegebene Steue- rungsaufgabe eine formale Darstellung der geforderten Prozessabläufe zu erarbeiten, die es ermöglicht, eine entsprechende Steuereinrichtung zu erstellen, sodass durch die von ihr ausgegebenen Stellsignale und empfangenen Messsignale der gewünschte er- eignisdiskrete Prozess in der Steuerstrecke abläuft. Bei verbindungsprogrammierten Steuereinrichtung erfolgt die formale Darstellung in Form von technischen Zeichnun- gen oder Schaltplänen, durch die vorgeschrieben wird, wie die Bauelemente zur Ver- knüpfung der binären Signale zusammenzuschalten sind. Bei speicherprogrammierba- ren Steuereinrichtungen geht es um die Erstellung von Programmen, über die alle logi- schen Verknüpfungen softwaremäßig realisiert werden.

Der Steuerungsentwurf kann entweder intuitiv bzw. empirisch oder systematisch durch- gefuhrt werden. Beim systematischen Entwurf spricht man auch von der Erstellung ei- nes Steueralgorithmus. Dabei kommen die Beschreibungsmittel und Methoden der Schaltalgebra, der Automatentheorie oder der Petri-Netz-Theorie zum Einsatz. Die Be- schreibungsmittel der Schaltalgebra, Automatentheorie und Petri-Netz-Theorie können dazu verwendet werden, beim Entwurf von Steuerungen die Steueralgorithmen zu- nächst manuell grob zu notieren.

Beispiel: Durch eine Wahrheitstabelle kann die Zuordnung von binären Ausgangssigna- len A zu binären Eingangssignalen X dargestellt werden. Die Werte der binären Signale werden durch die Ziffern 0 und 1 angegeben. Die Wahrheitstabelle enthält 2 Eingangs- Signale El und E2, und dafür ergeben sich 4 mögliche Eingangskombinationen. Im rechten Teil der Tabelle sind als Ausgänge Al bis A3 die Funktionswerte der drei wich- tigsten Verknüpfungen dargestellt: UND, ODER, Exclusiv-ODER (Antivalenz). Solche Tabellen mit mehreren Ausgängen sind eine verkürzte Darstellung von Einzeltabellen mit nur einem einzigen Ausgang. Eine Tabelle mit 4 Eingängen enthält 16 verschiedene Verknüpfungen (siehe Boolesche Funktion).

Beim Steuerungsentwurf kann von solchen Wahrheitstabellen ausgegangen werden. Nach einer möglichen Vereinfachung mit den Regeln der Schaltalgebra oder mit dem Kamaugh-Veitch-Diagramm kann das Ergebnis dann direkt zur Realisierung der Steue- rungseinrichtung dienen. Die Problemstellung des Beispiels verlangt also Speicherver- halten, sodass in der Wahrheitstabelle neben den Sensoren (El und E2) auch der Aktor- zustand, d. h. das Ausgangssignal Al, selbst als Eingang hinzugefügt werden muss (E3). Dadurch erhält die Tabelle 8 Zeilen.

Aus den Zeilen 1 bis 4 ist zu erkennen, dass bei gedrückter Ruftaste (El = 1) immer die Anzeige leuchtet (Al = 1), die beiden Eingänge E2 und E3 also keine Rolle spielen ((Anm. : Bei dieser Darstellung muss die Ruftaste immer gedrückt sein, wenn der Wert 1 angegeben ist, d. h. Art der Speicherung nicht erkennbar)). Die Zeilen 5 und 6 zeigen, dass die Rückstellung (Al = 0) von Eingang E3 unabhängig ist. In den Zeilen 7 und 8 steckt das Speicherverhalten der Steuerung: Die Leuchtanzeige behält ihren (alten) Zu- stand bei (Al = E3), wenn beide Taster den Zustand 0 haben. Hier liegt also eine inter- ne Rückführung des Meldungsausgangs Al auf den Eingang E3 vor. Die Leuchtanzeige besitzt also ein Speicherverhalten. Es handelt sich hierbei um eine sequentielle Ver- knüpfungssteuerung (s. Definition). Im folgenden Logik-Plan und im Relais-Schaltplan ist der Speicher als Selbsthaltekreis ausgebildet.

-Schaltausdruck (Ausdruck der Booleschen Algebra bzw. der Schaltalgebra): A 1 = E 1 V ( E 2 ~ A E 3 ) {\displaystyle Al=El\lor ({\overline {E2}}\land E3)} V (\displaystyle \lor } steht für ODER, L {\displaystyle Mand } steht für UND,— steht für NICHT Logik-Plan (Funktionsplan FUP)

-Logik-Plan (Funktionsplan FUP):>1 steht für ODER, & steht für UND, O steht für NICHT Der Logik-Plan ist eine Schaltung aus elektronischen Schaltgliedem.

Für die Grundverknüpfungen gibt es genormte Symbole, die ausführlich im Artikel Lo- gikgatter beschrieben sind. (>1 steht für ODER, & für UND, O ein Kreis am Eingang bzw. am Ausgang der Elemente für NICHT).

Relais-Schaltplan: Die UND-Verknüpfung wird als Reihenschaltung und die ODER- Verknüpfung als Parallelschaltung von Kontakten dargestellt. Für die Nicht- Verknüpfung wird ein Öffner verwendet. Für Ablauf-Steuerungen von ereignisdiskreten Prozessen eignen sich insbesondere die folgenden Beschreibungsmittel:

Zur Programmierung von Speicherprogrammierbaren Steuereinrichtungen wurden aus den obigen Beschreibungsmitteln 5 spezifische Fachsprachen abgeleitet, denen Compi- ler beigeordnet sind, mit denen der Quelltext in die SPS-Maschinensprache übersetzt wird. Diese 5 Fachsprachen für SPSen wurden seit den 1990er Jahren schrittweise in- ternational genormt, wozu insbesondere die Europa-Norm EN 61131 und hierauf auf- bauend die Norm der International Electrotechnical Commission IEC 61131-3 wesent- lich beigetragen haben.

Mit diesen Normungen wurden wesentliche Schritte zur Vereinheitlichung getan, um der SPS-Technologie zu ihrem weltweiten Durchbruch zu verhelfen, der die SPS zum meistverwendeten Automatisierungsmittel gemacht hat. SPSen werden heute in Millio- nen-Stückzahlen hergestellt und sowohl für Ablauf-Steuerungen als auch für Regelun- gen und Messwertverarbeitungen eingesetzt. SPSen bilden damit das universelle Kern- stück der zeitgemäßen Automatisierungsmittel und bewirken deren Massen- und Brei- teneinsatz.

Der Kontaktplan wurde abgeleitet vom oben dargestellten Relais-Schaltplan.

Funktionsplan FUP .Der Funktionsplan wurde abgeleitet vom oben dargestellten Logik- Plan. Ablaufsprache SFC (Sequential Function Chart)Die Ablaufsprache wurde abgelei- tet vom steuerungstechnisch interpretierten Petri-Netz. Strukturierter Text ST: Neben den speicherprogrammierbaren Steuerungen (SPS) kommen auch Industrie PC (IPC) zum Einsatz, die mit höheren Programmiersprachen programmiert werden. Diese Mög- lichkeit besteht auch bei modernen SPSen, sodass sich auch hier höhere Programmier- sprachen als Fachsprachen der Steuerungstechnik immer mehr verbreiten. BPCs können mit relativ geringem Aufwand auch umfangreiche Zusatzfunktionen wie Visualisierun- gen, Protokollierungen und Statistiken bereitstellen.

Ausgeführte Programme benötigen Zeit. Nur Hard- und Software, die auch im ungün- stigsten Fall synchron zum Prozess arbeiten kann, ist als Steuergerät geeignet und wird als echtzeitfähig bezeichnet. Im engeren Sinn bedeutet Echtzeit jedoch, dass Hard- und Software eines Rechners für diesen Zweck besonders ausgelegt sind. Rechner, die steu- ern, dürfen niemals überlastet sein, weil sie sonst mit dem Prozessablauf nicht Schritt halten können und somit ihre Echtzeitfähigkeit verlieren würden.

Während beim Entwurf von Regelungen mathematische Modelle der Regelstrecke ein- bezogen werden, verwendet man beim Entwurf von binären Steuerungen in der Praxis bisher lediglich gedankliche Modelle der Steuerstrecke. In den 1990er Jahren wurden erste Ansätze zum modellbasierten Entwurf von Steuerungen entwickelt, bei denen von einer Zerlegung der Steuerstrecken in Elementarsteuerstrecken ausgegangen wurde. Aus den sich daraus ergebenden Teilmodellen muss dann ein Gesamtmodell der Steuer- strecke gebildet werden. Dieses Vorgehen ist jedoch sehr aufwendig und wurde somit nicht praxiswirksam.

In den Jahren 2005 und 2007 wurde in der Fachzeitschrift„Automatisierungstechnik“ von Zander eine neuartige Methode zum Entwurf von Ablaufsteuerungen für ereignis- diskrete Prozesse publiziert, die es erlaubt, die in der Steuerungsaufgabe aus technolo- gischer Sicht vorgegebenen Prozessabläufe direkt in ein Prozessmodell der gesamten Steuerstrecke umzusetzen. Daraus lässt sich dann durch einfache Transformationen der zugehörige Steueralgorithmus generieren In einer Buchpublikation wurde diese Methode zum prozessmodellbasierten Entwurf durch Methoden zur Prozessanalyse und Modellbildung von ereignisdiskreten Prozes- sen komplettiert. Die Grundlage dazu bildet eine allgemein angelegte Struktur- und Verhaltensanalyse von Steuerstrecken auf der Basis der neuartigen Betrachtungsweise von Ablaufsteuerungen (s. oben), aus der sich ein tieferes Verständnis der Wirkungsab- läufe ergibt.

Die Modellierung der ereignisdiskreten Prozesse erfolgt dabei durch prozessinterpre- tierte Petri-Netze. Die daraus generierten Steueralgorithmen werden in Form von steue- rungstechnisch interpretierten Petri-Netzen dargestellt, die zur Realisierung direkt in ei- ne Ablaufsprache für SPS umgewandelt werden können. Die Vorgehensweise wird an Praxisbeispielen demonstriert, u. a. durch den Entwurf einer„intelligenten“ Aufzugs- steuerung für zehn Etagen.

Das Vorgehen beim prozessmodellbasierten Steuerungsentwurf kommt vor allem den Anwendern (Verfahrenstechniker, Fertigungstechniker u. a.) sehr entgegen, die es ge- wohnt sind, in Prozessabläufen zu denken. Sie müssen dadurch nicht die in der Steue- rungsaufgabe gegebenen Prozessabläufe unmittelbar in Steueralgorithmen umwandeln, was insbesondere Neueinsteigern gewisse Schwierigkeiten bereitet. Darüber hinaus kann das zunächst für die Generierung des Steueralgorithmus gebildete Prozessmodell zugleich auch für die Simulation einer entworfenen Steuerung oder zusätzlich für eine Betriebsdiagnose genutzt werden.

Gleichzeitig bedeutet diese innovative Entwurfsstrategie für Steuerungen erstmals eine methodische Vereinheitlichung des grundsätzlichen Vorgehens beim Entwurf in der Steuerungstechnik mit dem in der Regelungstechnik, ohne dabei die Spezifik der spezi- ellen Entwurfsverfahren und Entwurfswerkzeuge beider Gebiete in Frage zu stellen.

120. Regelungstechnik

Weitere Ausführungsformen für die Erfindung: Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element als Steuer- und/oder Regelungs- und Messtechnik- und/oder Sensorelement und/oder Verwendung des elektronischen Elementes (E), wenigstens ein Steuer- und/oder Rege- lungs- und Messtechnikgerät und/oder einen Sensor enthaltend, zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtechnik, wobei das elektronische Element wenigstens eines der folgenden technischen Merkmale ent- hält:

Regelungstechnik ist eine Ingenieurwissenschaft, welche die in der Technik verkom- menden Regelungsvorgänge behandelt. Sie ist wie die Steuerungstechnik ein Teilgebiet der Automatisierungstechnik. Ein technischer Regelvorgang ist eine gezielte Beeinflus- sung von physikalischen, chemischen oder anderen Größen in technischen Systemen. Die sogenannten Regelgrößen sind dabei auch beim Einwirken von Störungen entweder möglichst konstant zu halten (Festwertregelung) oder so zu beeinflussen, dass sie einer vorgegebenen zeitlichen Änderung folgen (Folgeregelung).

Bekannte Anwendungen im Haushalt sind die Konstant-Temperaturregelung für die Raumluft (Heizungsregelung), für die Luft im Kühlschrank oder für das Bügeleisen. Mit dem Tempomat wird die Fahrgeschwindigkeit im Kraftfahrzeug konstant gehalten. Eine Folgeregelung ist im Allgemeinen technisch anspruchsvoller, beispielsweise die Kursregelung mit einem Autopiloten in der Schifffahrt, Luftfahrt oder Raumfahrt, oder die Zielverfolgung eines beweglichen Objekts.

Regelung bedeutet Messen der zu beeinflussenden Größe (Regelgröße) und kontinuier- liches Vergleichen mit der gewählten Führungsgröße. Der Regler bestimmt aus der Re- gelabweichung (Regeldifferenz) und den vorgegebenen Regelparametem eine Stellgrö- ße. Diese wirkt über die Regelstrecke so auf die Regelgröße ein, dass sie die Regelab- weichung trotz vorhandener Störgrößen minimiert und die Regelgröße je nach gewähl- ten Gütekriterien ein gewünschtes Zeitverhalten annimmt. Der vorliegende Artikel ist eine Zusammenfassung der wichtigsten Grundlagen, der Sy- stemdefinitionen, Entwurfsstrategien, Stabilitätsprüfungen, Systemanalysen und der Be- rechnungsmethoden der Regelungstechnik. Weiterhin wird die historische Entwicklung des Fachgebietes behandelt, und es werden Vergleiche zwischen Regelungstechnik und Steuerungstechnik angestellt.

Naturphänomen Regelung: Das einer Regelung zugrunde liegende Rückkopplungsprin- zip ist keine Erfindung des Menschen, sondern ein Naturphänomen. Beispiel: Rege- lungsvorgänge in der lebenden Natur. Beim Menschen und bei Tieren: geregelte Kör- pertemperatur, geregelter Blutdruck und geregelter Blutzucker; Pupillenöfftiung regelt Lichteinfall; aufrechter Gang bei Zweibeinern mit Gleichgewichtsregelung.Das Hase- Fuchs-Population-Modell (siehe Räuber-Beute-Beziehung und Lotka-Volterra-Regeln) als Beispiel für das biologische Gleichgewicht regelt eine Führungsgröße als Funktion der unterschiedlichen Nahrungsangebote auf eine annähernd feste Hase-Fuchs- Verhältniszahl.

Störgrößen: Klima, Vegetation, veränderte Geländeeigenschaften, Krankheiten, Mensch.Beispiel: Erdklima.

Erdgeschichtlich gesehen, ist die globale Luft-Durchschnittstemperatur in Erdbodennä- he (Meereshöhe) seit vielen Millionen Jahren relativ konstant. Das Regelungsprinzip für den schmalen Temperaturbereich als Klima- Voraussetzung des höher entwickelten biologischen Lebens kommt in der Natur zur Anwendung, wenn z. B. durch eine stei- gende Lufttemperatur die globale Wasser-Oberflächentemperatur der Weltmeere steigt und durch Wasserdampf mit Wolkenbildung die Sonneneinstrahlung reduziert. Dabei greifen zahlreiche langfristige und kurzfristige Störgrößen zur Klimaveränderung ein: langfristige Störgrößen:

Abstand Erde-Mond vergrößert sich (Gezeitenänderung), Meeresströme ändern ihre Richtung, Erdkontinentalplatten wandern (Kontinentaldrift), Erdmagnet-Pole wandern. Erdgeschichtlich kurzfristige Störgrößen: Starker Vulkanismus fuhrt zur Abkühlung, große Meteoriteneinschläge fuhren zu Abkühlung oder im Extremfall zur Erdoberflä- chenverbrennung, Perioden geringer Sonnenaktivitäten (Sonnenflecken) bewirken eine leichte Abkühlungen (Kleine Eiszeit umstritten!).Biologisch: Algenwachstum und Ei- sendüngung (als Kohlenstoffbindung zur Kohlendioxid-Reduzierung: umstritten!), Ab- holzung der Wälder, Verbrennen fossiler Brennstoffe und erhöhter Methanausstoß (sie- he Alkane) führen zum Treibhauseffekt. Beispiel: Biologische Systeme und Geolo- gieDie Gaia-Hypothese wurde von der Mikrobiologin Lynn Margulis und dem Chemi- ker, Biophysiker und Mediziner James Lovelock Mitte der 1960er- Jahre entwickelt. Sie besagt, dass die Erde und ihre gesamte Biosphäre wie ein Lebewesen betrachtet werden kann.

Begriff Kybernetik: Die grundlegenden Analogien zwischen Regelungsvorgängen in der belebten Natur und in technischen Systemen wurden seit den 1940er Jahren näher beschrieben. In Deutschland erfolgte dies durch die„Allgemeine Regelungskunde“ von Hermann Schmidt, der 1944 auf den ersten Lehrstuhl für Regelungstechnik an der TH Berlin-Charlottenburg berufen wurde. In den USA war es Norbert Wiener, der sich während des Zweiten Weltkrieges mit Regelungen für militärische Anwendungen be- fasste. Beide untersuchten den Rückkoppelungsmechanismus in technischen und biolo- gischen Systemen. Norbert Wiener wurde 1947 zum Schöpfer des allgemein bekannten Begriffs Kybernetik für die Wissenschaft der Steuerung und Regelung von Maschinen und deren Analogie zur Handlungsweise von lebenden Organismen (aufgrund der Rückkopplung durch Sinnesorgane) und sozialen Organisationen (aufgrund der Rück- kopplung durch Kommunikation und Beobachtung). Hermann Schmidt benutzte später ebenfalls den Begriff Kybernetik.

Fliehkraftregler zur Regelung der Drehzahl einer Dampfmaschine (nicht dargestellt) rechts: Stellglied (Drosselklappe in der Dampfzuleitung)links: Messglied und Regler als Einheit (Fliehkraftpendel auf einer Drehzahl-Messwelle)Mitte: Gegenkopplung (waage- rechter Hebel und senkrechte Stange), kleinere Drehzahl vergrößert die Drosselöffnung Sollwert-Veränderung durch Längenänderung der senkrechten Stange zur Drosselklap- pe. Das Prinzip der Regelung durch Rückkopplung wurde schon von Mechanikern in der Antike angewendet. Nachgewiesen sind Einrichtungen zur Regelung von Flüssig- keits-Niveaus, die Ktesibios aus Alexandria und sein Schüler Philon von Byzanz erfan- den. Ktesibios regelte den Wasserstand in einem Behälter, aus dem eine Einlaufwasser- uhr mit Wasser versorgt wurde. Der Wasserzufluss von konstanter Höhe herab ist gleichmäßig und erhöht die Genauigkeit der Uhr. Von Phylon ist eine Öllampe bekannt geworden, in der das Öl automatisch auf gleichem Niveau gehalten wurde. Das kon- stante Ölniveau verbesserte den gleichmäßigen Brand der Flamme, ein Luxus, auf den man bei heutigen Öllampen verzichtet. Der Aufwand war aber klein, obwohl es sich um eine vollwertige Regelung handelte.

Danach wurde das Prinzip der Regelung erst wieder in der Neuzeit aufgegriffen. Im 17. Jahrhundert entstand die erste Temperaturregelung, die der Niederländer Comelis Jacobszoon Drebbel in einem Brutkasten für Hühnereier entwarf. 1681 erfand der Fran- zose Denis Papin eine einfache Druckregelung für einen Dampfkochtopf durch Einbau eines Überdruckventils.

Der erste in Serie hergestellte Regler war der Fliehkraftregler, dessen Erfindung James Watt fälschlicherweise zugeschrieben wird (siehe Abbildung). Der Fliehkraftregler wurde vorher schon an Windmühlen verwendet. Watt hat die 1769 von Thomas New- comen erfundene Dampfmaschine im Jahr 1786 mit einem solchen Regler ausgerüstet. Für die aufkommende Dampfmaschinentechnik kam die aus der Antike bekannte Was- serstandsregelung mit Schwimmer durch den Russen Ivan Polzunov zur Anwendung. Der Schwimmer beeinflusste über ein Gestänge das Wasser-Einlassventil des Dampf- kessels.

Der Radsatz eines Schienenfahrzeugs ist so konstruiert, dass er aufgrund der konischen Laufflächen der Räder selbsttätig in die Gleismitte zurücklenkt. Falls der Radsatz, z. B. durch seitliche Windkräfte oder ungerade verlegtem Gleis, aus der Gleismitte verscho- ben wird, erhöht sich der Rollradius auf der einer Seite und verringert sich auf der ande- ren Seite. Aufgrund der starren Koppelung der beiden Räder lenkt der Radsatz daher mit einem gedämpften Sinuslauf in die Gleismitte zurück. Entgegen landläufiger Mei- nung ist der Spurkranz nicht für die Spurhaltung erforderlich. Bei ungenügender Ausle- gung des mechanisch rückgekoppelten Systems neigt der Radsatz bei hohen Geschwin- digkeiten zu instabilen Schwingungen.

Die Einspritzpumpe eines Dieselmotors enthält einen Regler um die Menge des pro Umdrehung zugeführten Kraftstoffs so zu dosieren, dass die Drehzahl des Motors ent- sprechend der Stellung des Gaspedals konstant bleibt. Ohne diese Regelung würde er zur Instabilität und Selbstzerstörung neigen, da mit höherer Drehzahl immer mehr Kraftstoff zugeführt würde. Die Technik der selbsttätigen Regelung blieb lange Zeit auf die Anwendung in Kraftmaschinen beschränkt. Eine erste Ausweitung erstreckte sich auf die Regelung von Größen in verfahrenstechnischen Prozessen, vor allem von Tem- peraturen, Drücken und Massenströmen. Nach dem Zweiten Weltkrieg entstanden die vereinheitlichten, vielfach einstellbaren elektrischen, hydraulischen und pneumatischen PID-Regler.

In der jüngsten Vergangenheit hat sich die Anwendung der Regelungstechnik auf alle Gebiete der Technik ausgedehnt. Anstöße gaben die Ausweitung der Automatisierung, zum Beispiel mit Hilfe von Robotern, und die neue Weltraumtechnik. Die Regelungs- technik ist inzwischen eine Symbiose mit der Informationstechnik (sowohl Hard- als auch Software) eingegangen. Die Verkehrsregelung zur Vermeidung von Staus ist ein Beispiel für ein sehr komplexes System, wenn die Grünphasen der Kreuzungen entspre- chend dem tatsächlichen Verkehrsaufkommen als Grüne Welle so aufeinander abge- stimmt werden, dass sich ein möglichst konstanter Verkehrsfluss ergibt.

Definition von Regelung und Steuerung/Normung von Regelung und Steuerung: In der Automatisierungstechnik spielen neben Regelungen auch Steuerungen eine sehr wichti- ge Rolle. Zur Geschichte der Normung von Regelung und Steuerung sind im Artikel Steuerungstechnik nähere Ausführungen zu finden. Die Norm„IEC 60050-351 Interna- tionales Elektrotechnisches Wörterbuch - Teil 351 Leittechnik“ legt Grundbegriffe der Leittechnik fest, unter anderen auch Prozess und Leiten, und schließt dabei die Rege- lung und die Steuerung mit ein. Sie ersetzt in Deutschland die DIN-Normen DIN IEC 60050-351 und DIN V 19222:2001-09. Die früher gültige Norm DIN 19226 für die De- finition regelungstechnischer und steuerungstechnischer Begriffe ist seit dem Jahre 2002 nicht mehr gültig. In der englischsprachigen Fachliteratur wird undifferenziert sowohl für Regelung als auch für Steuerung das Wort control (für den Prozess) bzw. Controller (für die hard- waremäßige Implementierung) verwendet. Dieser Begriff wird oft einfach mit Steue- rung übersetzt. Regelungstechnik wird meist als control engineering übersetzt. Um rich- tig übersetzen zu können, ist daher die Kenntnis des Kontextes erforderlich.

Prinzipien der Regelung: Die Norm DIN IEC 60050-351 enthält folgende Definition des Begriffs Regelung: Die Regelung bzw. das Regeln ist ein Vorgang, bei dem fortlau- fend eine Größe, die Regelgröße erfasst, mit einer anderen Größe, der Führungsgröße, verglichen und im Sinne einer Angleichung an die Führungsgröße beeinflusst wird. Kennzeichen für das Regeln ist der geschlossene Wirkungsablauf, bei dem die Regel- größe im Wirkungsweg des Regelkreises fortlaufend sich selbst beeinflusst.

Dieser Definition liegt der Wirkungsplan für eine einschleifige Eingrößen-Regelung zugrunde, wie diese in der Praxis am häufigsten auftritt. Darin sind die einzelnen Grö- ßen wie die Regelgröße, die Führungsgröße sowie die nicht genannte Messgröße (Rück- führung), die Stellgröße und die Störgröße als dynamische Größen zu betrachten.

Beispiel: Ein Blockdiagramm eines Standard-Regelkreises für eine einzige Regelgröße y(t), sog. Eingrößen-Regelung als einschleifiger Regelkreis.Die zeitabhängige Regel- größe (Istwert) y ( t ) {\displaystyle y(t)} wird durch ein Messglied gemessen und des- sen Ergebnis y M ( t ) {\displaystyle yM(t)} mit der Führungsgröße (Sollwert) w ( t ) {\displaystyle w(t)} verglichen. Die Regelabweichung e ( t ) {\displaystyle e(t)} als Differenz zwischen dem Sollwert w ( t ) {\displaystyle w(t)} und dem Istwert y M ( t ) {\displaystyle yM(t)} wird dem Regler zugeführt, der daraus entsprechend dem ge- wünschten Zeitverhalten (Dynamik) des Regelkreises eine Stellgröße u ( t ) {\displaystyle u(t)} bildet. Das Stellglied kann Bestandteil des Reglers sein, in den mei- sten Fällen stellt es jedoch ein separates Gerät dar. Die Störgröße d ( t ) {\display style d(t)} wirkt auf die Regelstrecke, sie kann auch nur auf einzelne Teile der Regelstrecke Einfluss nehmen. Das Messglied in der Rückführung kann eine Zeitverzögerung auf- weisen, die bei schnellen Regelstrecken mit zu berücksichtigen ist. Für die gewollte Minimierung der Regelabweichung (bzw. RegeldifFerenz) e ( t ) {\displaystyle e(t)} hängt die Polarität der Regelabweichung nicht nur von der Führungsgröße w ( t ) {\displaystyle w(t)} ab, sondern auch vom Wirkungssinn der Regelstrecke (direkt oder invertierend).

Eine positive Regelabweichung fuhrt über die Verstärkung des Reglers nur dann zu ei- ner positiven Zunahme der Regelgröße, wenn die Regelstrecke zur Reduzierung der Regelabweichung einen positiven Stellwert benötigt. Handelt es sich bei einer Regel- strecke z. B. um eine Heizung, so fuhrt ein positiver Stellwert zu einer steigenden Tem- peratur. Das Öffnen eines Fensters, Sonneneinstrahlung oder Kühleffekte durch Wind- geschwindigkeit sind von außen wirkende Störgrößen. Handelt es sich bei der Regel- strecke z. B. um ein Kühlaggregat, so fuhrt ein positiver Stellwert (also das Einschalten der Kompressionskältemaschine) zu einer sinkenden Temperatur. Ein solcher Fall ist im Blockschaltbild des Regelkreises durch eine Vorzeichenumkehr der Stellgröße gekenn- zeichnet. Prinzipiell ist die Regelung einer Regelstrecke als Mehrgrößensystem ähnlich dem Ein- größensystem. Sie erfordert die Analyse der Kopplungselemente und damit einen höhe- ren mathematischen Aufwand für die Regelkreisauslegung. Für eine Mehrgrößen- Regelung ist kennzeichnend, dass eine einzige Stellgröße als Eingangsgröße der Regel- strecke stets mehrere Ausgangsgrößen (Regelgrößen) beeinflusst (hier über die Fakto- ren G21 und Gl 2). Wenn eine Klimaanlage sowohl die Temperatur als auch die relative Feuchte auf Sollwerte regeln soll, dann fuhrt ein Stelleingriff u 1 {\displaystyle ul} in die Heizung zur Temperaturerhöhung y 1 (\displaystyle yl} und - physikalisch bedingt - gleichzeitig zum Absinken der relativen Feuchte y 2 {\displaystyle y2}. Ein Stellein- griff u 2 {\displaystyle u2} in die Befeuchtungseinrichtung zur Feuchteerhöhung y 2 {\displaystyle y2} senkt zugleich die Temperatur y 1 {\displaystyle yl) im klimatisier- ten Raum. Über den Entkopplungsregler wird der Regeleingriff so optimiert, dass bei einer Temperaturerhöhung gleichzeitig mehr Feuchte zugeführt wird (Faktor GR21). Prinzipien der Steuerung Die Norm DIN IEC 60050-351 enthält folgende Definition des Begriffs Steuerung:

Das Steuern, die Steuerung, ist ein Vorgang in einem System, bei dem eine oder mehre- re Größen als Eingangsgrößen, andere Größen als Ausgangs- bzw. Steuergrößen auf- grund der dem System eigentümlichen Gesetzmäßigkeiten beeinflussen.Kennzeichen für das Steuern ist entweder der offene Wirkungsweg oder ein zeitweise geschlossener Wirkungsweg, bei dem die durch die Eingangsgrößen beeinflussten Ausgangsgrößen nicht fortlaufend und nicht wieder über dieselben Eingangsgrößen auf sich selbst wir- ken.

Beim Wirkungsplan von Steuerungen entfallt gegenüber dem Wirkungsplan der Rege- lung die über das Messglied der Regelgröße vollzogene Rückführung (Rückkopplung). Die Führungsgröße bildet über die Steuereinrichtung eine Stellgröße, die über die Steu- erstrecke direkt die Ausgangsgröße bestimmt. Greifen keine Störgrößen d ( t ) {\displaystyle d(t)} die Steuerstrecke an, arbeitet eine offene Steuerung bei gut bekann- ter Steuerstrecke problemlos. Sind die Störungen messbar, können sie durch geeignete Maßnahmen kompensiert werden. Beispielsweise ist die Energiezufuhr für eine Hei- zungseinrichtung, bei der die Vorlauftemperatur als Führungsgröße w ( t ) {\displaystyle w(t)} in Abhängigkeit von der Außentemperatur geregelt wird und damit den Raum aufheizt, eine offene Steuerung. Wird ein Fenster des Raumes zur kalten äu- ßeren Umgebung geöffnet, wirkt eine Störgröße d ( t ) {\displaystyle d(t)} und die Rauminnentemperatur y ( t ) (\displaystyle y(t)} sinkt, weil ohne Rückkopplung die Energiezufuhr nicht erhöht wird.

Der Wirkungsplan in der Abbildung zeigt eine Steuerung, die als offene Kette aus Steu- ereinrichtung und Steuerstrecke dargestellt ist. Um durch eine Steuerung auch bekannte dominante Störeinflüsse kompensieren zu können, kann zusätzlich eine Störgrößenauf- schaltung verwendet werden (oberer Block in der Abbildung), die als eine Rückführung der Störgröße auf den Eingang der Steuerstrecke wirkt und damit diese Störgröße kom- pensiert.

Vor- und Nachteile von Regelungen gegenüber Steuerungen

Grundsätzlich ist eine Regelung technisch aufwändiger und teurer als eine Steuerung, weil sie die Steuergröße als Regelgröße messen und die (dynamische) Stellgröße mit einem geeigneten Regler ermitteln muss. Eine Steuerung ist nur dann vorteilhaft, wenn die Auswirkung von Störgrößen toleriert werden kann und an Genauigkeit und Kon- stanz der Steuergröße keine hohen Anforderungen bestehen.

Vorteile von Regelungen:

-Der Einfluss von bekannten und unbekannten (d. h. nicht messbaren oder nicht gemes- senen) Störgrößen wird reduziert, so dass die Regelgröße weitgehend dem vorgegebe- nen Sollwert entspricht.

-Eine größere Verstärkung kann die Regelstrecke schneller machen, solange keine Stellgrößenbegrenzungen und keine Instabilitäten auftreten.

-Regelstrecken, die zu Instabilität neigen, können durch eine Regelung stabilisiert wer- den.

-Anforderungen an die dynamische Genauigkeit und den hierfür erforderlichen Ener- gieaufwand können gemäß vorgegebener Ziele (Gütekriterien) optimiert werden.

Nachteile von Regelungen:

-Der Regelkreis kann durch ungewollte, z. B. durch Alterung und Verschleiß bedingte Parameteränderungen instabil werden.

-Genaue und schnelle Messungen der Regelgröße können kostenintensiv sein.

-Heuristische Optimierungsverfahren wie„Versuch und Irrtum“ reichen bei anspruchs- vollen Regelungen nicht aus. Qualifizierte Fachleute sind erforderlich.

Die Eingangs- und Ausgangsgrößen sowie deren Verarbeitung in einem Steuerungs- oder Regelungssystems können durch Analogtechnik oder Digitaltechnik realisiert wer- den. Analoge Systeme werden heute weitgehend ersetzt durch digitale Systeme, die die Automatisierung durch Fernsteuerung, Femwartung und Vernetzung im Sinne von In- dustrie 4.0 unterstützen und zudem meist kostengünstiger herzustellen sind. In Sonder- fällen werden pneumatische oder einfache mechanische Regler eingesetzt.

Je nach Aufbau und Einsatzzweck lassen sich unterscheiden:

-Industrieregler: Maschinennahe Einzelregler für Kleinanlagen mit eigenem Mikropro- zessor

-Prozessregelgeräte: Erweiterbare Industrieregler mit Schnittstelle zu übergelagertem (Leit-)System

-Universalregler: Prozessregler in Form von Erweiterungskarten oder Software- Regelbausteinen für programmierbare Steuerungen

-Branchenregler: Spezielle Prozessregler, die für bestimmte Anwendungsgebiete opti- miert sind

Analogtechnik: Analogsignale sind wert- und zeitkontinuierlich und weisen daher einen stufenlosen und beliebig feinen Verlauf auf. Die Grenzen der Signalauflösung sind durch parasitäre Signalrauschanteile gegeben. Bei Anwendung von Abschirmmaßnah- men und Signalfiltem lässt sich die Signalauflösung verbessern. Der Steuer- bzw. Re- geleingriff erfolgt stetig ohne Verzögerung und ist damit auch für hoch-dynamische Regelkreise geeignet. Analoge Regelungssysteme basieren meist auf Analogelektronik mit Operationsverstärkern und Analogmultiplizierern für die Grundrechenarten. Die Vorgabe der Führungsgröße und die Einstellwerte für den Regler wird meist durch Po- tentiometer realisiert. In seltenen Fällen werden auch pneumatische Regler verwendet.

Digitaltechnik: Digitale Systeme weisen einen nichtstetigen Verlauf mit diskreten Wer- ten für Messwerte und Stellgrößen, die mit einer vorgegebenen Abtastrate aktualisiert werden. Mit heute verfügbaren Technologien ist sowohl die Auflösung der Systemgrö- ßen als auch die verfügbare Rechenleistung so hoch, dass die Leistung von analogen Systeme in fast allen Anwendungsfallen übertroffen wird und bei komplexeren System sogar kostengünstiger umgesetzt werden kann. Es bleibt jedoch das systemische Risiko von imentdeckten Softwarefehlem, die unzulässige oder katastrophale Auswirkungen haben können.

Speicherprogrammierbare Steuerungen (SPS) verarbeiten die binären Eingangssignale über das digitale Rechenwerk zu binären Ausgangssignalen. Das Rechenwerk wird über ein Programm gesteuert, das in Speichern abgelegt ist. Speicherprogrammierbare Steue- rungen sind modular aufgebaut und werden von vielen Herstellern angeboten. Sie kön- nen damit einfache Schaltwerke für kombinatorisches und sequenzielles Verhalten für aufeinander folgende Funktionsabläufe (Ablaufsteuerungen) realisieren. Der sequentiel- le Ablauf kann mit einer Rückmeldung als vollzogene Bestätigung eines Steuervor- gangs verbunden sein und entspricht damit einer zeitweise geschlossenen Steue- rung.^ 1-43 Es können auch digitale oder analoge Teilsysteme eingebunden sein. Ana- loge Meßwerte werden dabei zeitdiskret abgetastet und mit Analog-Digital-Umsetzern in diskrete Digitalwerte umgesetzt. Analoge Ausgangssignale können mit Digital- Analog-Umsetzern oder Pulsweitenmodulation für analog arbeitende Stellglieder aufbe- reitet werden. Schrittmotore werden direkt angesteuert.

Die Steuereinrichtungen beeinflussen die Regelstrecke oder einen technischen Prozess über Bedienelemente wie Signalgeber (Schalter, Taster, Tastaturfeld) mit Steuerfunk- tionen wie Schalt-, Zähl-, Zeit-Vergleicher und Speichervorgängen sowie zeitliche Ab- lauffunktionen. Soweit physikalische analoge Größen überwacht oder geregelt werden, sind die entsprechenden Sensoren erforderlich. Auch Noteingriffe für die automatische Abschaltung des Prozesse, teilweise mit geordnetem Herunterfahren, können erforder- lich werden.

Innerhalb der Steuerstrecke oder deren Ausgängen findet der Prozessablauf statt. Stell- glieder und Aktoren jeglicher Art (Motoren, Ventile, Pumpen, Förderbänder, Schalt- schütze), Hydraulik- und Pneumatikelemente, Stromversorgung, Regler wirken auf den Prozess. Ausgangssignale beziehen sich auf die Überwachung des Prozesses und sind durch Signallampen, alphanumerische Anzeigen, Fehlermeldungstableaus, akustische Signalgeber, Protokollschreiber usw. realisiert.:35-50 Anwendungen digitaler Steue- rungs- und Regelungstechnik sind beispielsweise Offset-Rotationsmaschinen für Druckerzeugnisse, die Automatisierung chemischer Produktionsanlagen und Kern- kraftwerke.

Digitaltechnik und Vernetzung erhöhen die Risiken von katastrophalen Programmfeh- lem sowie unbeherrschbaren Situationen, wie z. B. im Fall der beiden Abstürze der Boeing 737 Max aufgrund der Schwächen des Maneuvering Characteristics Augmenta- tion System (MCAS). Technische Prozesse können durch Cyberattacken angegriffen werden, wie mit dem Stuxnet-Computerwurm auf iranische Zentrifugen zur Urananrei- cherung.

Sonstige Realisierungen: Sehr einfache mechanische Regler benötigen keine Hilfsener- gie. Der Bimetallthermostat eines Bügeleisens schließt den elektrischen Kontakt der Heizung, solange die Solltemperatur nicht erreicht ist. Danach ergibt sich aufgrund der Verzögerung der Messung und der Schalthysterese des Kontakts ein quasi-periodisches Ein- und Ausschalten, bei dem die Temperatur der Bügelfläche mit wenigen Kelvin Abweichung um den Sollwert pendelt. Pneumatische Regler benötigen Druckluft als Hilfsenergie. Sie werden vor allem in Anwendungen eingesetzt, die Explosionsschutz erfordern und die Gefahr von Funkenbildung unbedingt vermieden werden muss.

Werkzeuge für Rapid Prototyping in Forschung und Entwicklung: In der Forschung und Entwicklung entsteht regelmäßig das Problem, neue Regelungskonzepte zu testen. Die wichtigsten Software-Werkzeuge für rechnergestützte Analyse, Entwurf und Rapid Control Prototyping sowie Simulation von Regelungen sind nachfolgend aufgeführt.

MATLAB und Simulink, The MathWorks :Durch zahlreiche Toolboxes ein sehr um- fangreiches Softwarepaket für numerische Mathematik, für Simulation, Systemidentifi- kation, Reglerentwurf und Rapid Control Prototyping geeignet (kommerziell)

Scilab, Institut National de Recherche en Informatique et en Automatique (INRIA) Ebenfalls sehr umfangreiches Softwarepaket für numerische Mathematik mit ähnlichem Konzept und ähnlicher Syntax wie MATLAB, für Simulation, Systemidentifikation und Rapid Control Prototyping geeignet (frei)

CAMeL-View TestRig: Entwicklungsumgebung zur Modellbildung von physikalischen Systemen mit dem Schwerpunkt Reglerentwurf und Rapid Control Prototyping sowie zur Anbindung an Versuchsstände (kommerziell)

Maple : Computeralgebrasystem (CAS), beherrscht numerische und symbolische Ma- thematik, besonders für manche Entwurfsverfahren der nichtlinearen Regelung geeignet (kommerziell)

Mathematica, Wolfram Research, Inc.: Umfangreiches Softwarepaket für numerische und symbolische Mathematik (kommerziell) dSPACE: Integrierte Hard- und Software-Lösungen für die Anbindung von MATLAB an Versuchsstände (kommerziell)

Lab VIEW, National Instruments (NI): Integrierte Hard- und Software-Lösungen für die Rechnersteuerung von Versuchsständen (kommerziell)

ExpertControl: Software-Lösungen für vollautomatische Systemidentifikation und voll- automatische, modellbasierte Reglerauslegung für klassische Reglerstrukturen (PID- Regler) sowie Reglerstrukturen für Systeme höherer Ordnung (kommerziell)

TPT: Systematisches Testwerkzeug für Regelungssysteme, das neben der Simulation auch eine Ergebnisauswertung und Analysemöglichkeit bietet.

Alle aufgeführten Werkzeuge zeigen ein hohes Maß an Flexibilität bezüglich der An- wendung und der verwendbaren Reglerstrukturen. Bahntechnik: In der Antriebsregelung treten vielfältige Regelungsprobleme auf, es sind beispielsweise Drehmoment und Geschwindigkeit zu regeln. An der U-Bahn Sendai wurde die Fuzzy-Regelung erfolgreich eingesetzt. Luftfahrt: Regelungsprobleme treten in zahlreichen Komponenten von Flugzeugen auf, etwa in den Turbinen, aber auch bezogen auf die Flugdynamik. Beispiele für flugdyna- mische Regelungsprobleme sind die Kontrolle der Roll-, Gier-, und Nickwinkel, sowie der Autopilot. Siehe auch Flugsteuerung. Energietechnik: Stellungsregelung eines Stellventils mit Stellantrieb innerhalb einer Reglerkaskade. Im Verbundnetz der Stromversorgung sind Spannung und Frequenz netzweit zu halten. In jedem Kraftwerk werden Spannung und Frequenz lokal geregelt, so dass die Aufgabe mit dezentralen Reglern durch Variation der Regelleistung gelöst wird (siehe auch Kraftwerksmanagement). Global werden lediglich die Leistungssoll- werte der einzelnen Kraftwerke vorgegeben.

Kraftfahrzeugtechnik: Tempomat und Antiblockiersystem (ABS), aber auch elektroni- sches Stabilitätsprogramm (ESP) sind bekannte Regelungen im Fahrzeugbereich, die auch als Fahrerassistenzsysteme bezeichnet werden. Auch Verbrennungsmotoren bein- halten vielfältige Regelkreise, beispielsweise für die Leerlaufdrehzahl, das Luftverhält- nis (siehe auch Lambdasonde), die Klopfregelung (siehe auch Klopfen (Verbrennungs- motor)). Moderne automatische Schaltgetriebe benötigen Regelkreise für die Synchro- nisation beim Schalten. Elektroantrieb: Bei Fahrzeugen mit elektrischem Antrieb werden Elektromotoren mit größeren Leistungen eingesetzt. Diese werden über eine Drehzahl- und Drehmomentre- gelung angesteuert, bei Hybridfahrzeugen auch in Verbindung mit dem Verbrennungs- motor. Pipeline: In Pipelines kommen vor allem vermaschte Regelungen vor, für Durchfluss, Druckregelung (Vordruck, Nachdruck) und Stellungsregelung einschließlich Grenz- wertregelung.

Robotik: In der Fertigungsautomatisierung sind die Achsen der Fertigungsroboter zu positionieren. Hier spielen eine schnelle Beruhigungszeit und geringstes Überschwin- gen eine besonders große Rolle.

Verfahrenstechnik: In verfahrenstechnischen Prozessen werden chemische und physika- lische Größen geregelt, die im betrachteten Prozess eine Rolle spielen. Beispiele sind die Regelung von Füllstand, Temperatur, pH-Wert und Sauerstoffgehalt eines Rührkes- sel-Reaktors oder das Konstanthalten von Stoff- bzw. Ionenkonzentrationen mit einem Chemostat.

Wasserwirtschaft: Zur Vermeidung von Überschwemmungen und Sicherung der Was- serversorgung sind unterlagerte Regelungen von Ketten von Talsperren bedeutsam. Der Füllstand eines einzelnen Stausees wird von einem übergeordneten Management vorge- geben und lokal geregelt.

Die Aufgabe des Reglers besteht darin, die Regelgröße der Führungsgröße möglichst gut anzunähem und den Einfluss von Störgrößen zu minimieren. Die Führungsgröße w ( t ) {\displaystyle w(t)} kann als fester Sollwert, als programmgesteuerte Sollwertvor- gabe oder als kontinuierliches, zeitabhängiges Eingangssignal mit besonderen Folge- eigenschaften für die Regelgröße ausgelegt sein.

Eine der Regelstrecke nicht angepasste zu hohe Kreisverstärkung kann bei Regelstrek- ken mit mehreren Verzögerungsgliedem oder gar mit Totzeitverhalten zur oszillatori- schen Instabilität führen. Bedingt durch die Zeitverzögerung in der Regelstrecke wird über den Soll-Istwert- Vergleich dem Regler die Regeldifferenz verspätet zugeführt. Diese nacheilende Verschiebung der Regelgröße kann am Soll-Istwert-Vergleich anstel- le einer Gegenkopplung eine Mitkopplung bewirken, und der geschlossene Regelkreis wird hierdurch instabil und baut Dauerschwingungen auf. Regelkreis-Entwurfsstrategien für lineare Systeme: Die Entwurfsstrategien für Regel- kreise beziehen sich bei linearen Systemen auf die Optimierung des statischen Verhal- tens und des Zeitverhaltens des jeweiligen geschlossenen Regelkreises. Je geringer bei- spielsweise die Zeitverzögerungen der Regelstrecke sind, umso höher kann die sog. Kreisverstärkung und damit die Verstärkung des Reglers gewählt werden, was die stati- sche Genauigkeit der Regelung verbessert.

Eine hohe Kreisverstärkung macht den Regelkreis auch dynamisch schnell, sie kann aber praktisch nur begrenzt realisiert werden, weil die Stellgröße wegen technischer Anschläge oder aus Energiemangel nicht unbegrenzt wachsen kann. Eine geringere Regler- Verstärkung in Verbindung mit einer zeitlich integral wirkenden Komponente des Reglers macht den Regelkreis für alle statischen Einflüsse zwar genauer und stabi- ler, aber eben auch langsamer. Hierzu muss mittels einer geeigneten Entwurfsstrategie eine optimierte Kompromisslösung gefunden werden. Zur Beurteilung wurde dazu der Begriff Regelgüte definiert, der es erlaubt, das unvermeidliche periodisch gedämpfte Einschwingverhalten der Regelgröße in Regelkreisen mit Regelstrecken höherer Ord- nung abzuschätzen.

Regelkreis-Entwurfsstrategie bei gemischten linearen und nichtlinearen Systemen Die Entwurfsstrategie bei gemischten linearen und nichtlinearen Systemen ist kompli- zierter und bezieht sich auf Modelle wie z. B. das Hammerstein-Modell, bei dem eine statische Nichtlinearität in Verbindung mit einem dynamischen linearen System zu- sammenwirkt. Das Verhalten unstetiger nichtlinearer statischer Regler in Verbindung mit linearen Regelstrecken kann mit dem Verfahren der harmonischen Balance behan- delt werden.

Regler in Regelkreisen mit nichtlinearen und linearen Komponenten lassen sich sinn- voll mit der numerischen Mathematik behandeln, insbesondere mit modernen Simulati- onswerkzeugen, wie diese auch für Personalcomputer (PC) zur Verfügung stehen. Zur Bestimmung des Systemverhaltens der Regelstrecke und des Reglers sind verschiedene theoretische und experimentelle Analysemethoden und mathematische Entwurfsverfah- ren üblich.

Als einfaches, anschauliches Beispiel für einen Standard-Regelkreis soll hier die Rege- lung der Raumtemperatur auf Grundlage einer Warmwasser-Zentralheizung und deren Gerätekomponenten dienen.

Regelkreisentwurf: Der Entwurf einer Regelung - die Verbindung eines geeigneten Reglers mit der Regelstrecke zu einem geschlossenen Kreis - ist die eigentliche Aufga- be der Regelungstechnik. Häufige Anwendungen der Regelung physikalischer Größen: Nachfolgende Auflistung nennt unabhängig von konkreten Anwendungen einige physi- kalische bzw. chemische Größen, die typischerweise als Regelgrößen auftreten.

-T emperaturregelung

-Druck- und Kraftregelung

-Durchfluss- und Mengenregelung

-Füllstandsregelung

-Lage-, Positions-, und Entfemungsregelung

-Geschwindigkeits- und Beschleunigungsregelung

-Drehzahl- und Drehmomentregelung

-Regelung chemischer Größen, wie Konzentrationen, in der Verfahrenstechnik

Grundlagen des Regelkreises: In einem einfachen Regelkreis zur Regelung beliebiger physikalischer Größen bestimmt die Größe des Sollwertes und das Zeitverhalten der Regelstrecke in Verbindung mit dem Zeitverhalten des angepassten Reglers den zeitli- chen Verlauf der Regelgröße. Die Aufgabe des Reglers besteht gewöhnlich darin, die Regelgröße der Führungsgröße möglichst gut anzunähem und den Einfluss von Stör- größen zu minimieren. Ein stabiler Regelkreis kann bei Parameteränderungen des Reg- lers oder der Regelstrecke instabil werden, selbst wenn die einzelnen Bestandteile des Regelkreises für sich genommen stabil sind. Andererseits kann sich ein Regelkreis mit einem geeigneten Regler auch stabil verhalten, wenn einzelne Bestandteile der Strecke instabil sind. Eine positive Rückführung eines Regelkreises führt immer zur monotonen Instabilität. Die P- Verstärkung eines Reglers kann in einem Regelkreis nicht beliebig hoch gewählt werden, anderenfalls führt infolge der phasenverschiebenden Eigenschaften aller zeit- abhängigen Komponenten des Regelkreises - bedingt durch die negative Rückführung

- zur oszillatorischen Instabilität. Wird z. B. ein variables Frequenzsignal konstanter Amplitude an den Eingang einer Regelstrecke mit mindestens drei PT1- Verzögerungsgliedem eingeleitet, dann fallt mit steigender Frequenz die Amplitude des Ausgangssignals und das Ausgangssignal ist gegenüber dem Eingangssignal nacheilend um < - 180 ° {\displaystyle <-180 L {\circ }} verschoben. Wenn eine solche Regelstrek- ke in Verbindung mit einem Regler zu einem Regelkreis geschaltet wird, entsteht am Soll-Istwert-Vergleich für eine kritische Kreisverstärkung anstelle einer Gegenkopp- lung eine Mitkopplung und der Regelkreis wird oszillatorisch instabil.

Die Stabilität eines Regelkreises kann nach dem vereinfachten Nyquist-Kriterium durch die Darstellung des Amplitudengangs und des Phasengangs im Bode-Diagramm abge- schätzt werden: Ein geschlossener Regelkreis G ( j w ) {\displaystyle G(j\omega )} ist stabil, wenn der aufgeschnittene Regelkreis G 0 ( j w ) {\display style G_{0}(j\omega )} bei der Durchtrittsffequenz w d {\display style \omega _{d}} für | G 0 ( j w ) | = 1 {\displaystyle |G_{0}(j\omega )|=1} die Phasendrehung des Phasengangs f 0 ( w d ) >

- 180 ° {\displaystyle Yvarphi _{0}(\omega _{d})>-180 L {\circ }} ist. Diese Beziehung gilt für stabile Verzögerungsglieder (negative Realteile der Pole) bis zu einem Doppel- pol im Ursprung und einem Totzeitglied der Regelstrecke.

Bei Angriff einer statischen oder flüchtigen Störgröße zeigt die Regelgröße zu diesem Zeitpunkt eine vorübergehende Regelgrößenänderung. Eine statische Störgröße kann eine bleibende Regelabweichung hervorrufen, wenn die Kreis Verstärkung z. B. bei Verwendung eines stetigen proportionalen Reglers (P-Regler) nicht hoch genug ist. Hat der Regler eine zeitlich integrale Komponente (I-Glied), verschwinden statische Re- gelabweichungen, der Regelvorgang wird aber wegen der notwendigen Reduzierung der Kreisverstärkung langsamer. Es ist Aufgabe des Reglers, das Zeitverhalten der Regelgröße bezüglich des statischen und dynamischen Verhaltens gemäß vorgegebenen Anforderungen festzulegen. Zur Er- füllung widersprechender Anforderungen wie gutes Führungs- und Störverhalten sind gegebenenfalls aufwändigere Regelkreisstrukturen erforderlich. Die Übergangsfunktion (Sprungantwort der Regelgröße) eines Regelkreises mit einer Regelstrecke ab des zwei- ten Grades (ohne Pol-Nullstellen-Kompensation) verursacht je nach Höhe der Kreisver- stärkung ein unvermeidbares periodisch gedämpftes Einschwingverhalten.

Die Führungsgröße w ( t ) {\displaystyle w(t)} des Regelkreises kann als fester Soll- wert, als programmgesteuerte Sollwertvorgabe oder als kontinuierliches, zeitabhängiges Eingangssignal mit besonderen Folgeeigenschaften für die Regelgröße ausgelegt sein. Kenngrößen der Übergangsfunktion des RegelkreisesEin Regelkreis mit linearen Kom- ponenten der Regelstrecke höherer Ordnung, eventuell mit kleiner Totzeit und geringer Begrenzung der Stellgröße des Reglers hat die im Grafikbild dargestellte typische Übergangsfunktion (Sprungantwort). Die nachfolgenden tabellarisch aufgestellten Kenngrößen, die durch Führungsgrößensprünge oder Störgrößensprünge entstehen, hängen von den Regel- und Streckenparametem ab. Mit systematischer Änderung der Regelparameter lassen sich die gewünschten Eigenschaften der Kenngrößen (auch Gü- teforderungen, Dynamikforderungen) erreichen.

Die nachfolgenden Begriffe der Kenngrößen der Übergangsfunktion sind in der Fachli- teratur meistens einheitlich geführt. Die zugehörigen Abkürzungen sind es nicht. [16] Ließen sich diese Größen der Anregelzeit, der Ausregelzeit und der Überschwingweite gemeinsam minimieren, dann wäre der Regelkreis optimal dimensioniert. Leider zeigen die genannten Größen bei Änderung der Reglerparameter ein teilweise entgegengesetz- tes Verhalten. Erhöht man beispielsweise die Kreisverstärkung, verkürzt sich die Anre- gelzeit, die Ausregelzeit und die Überschwingweite vergrößern sich.

Der Regelkreis wird mit Hinblick auf das Führungs-, Stör- und Robustheitsverhalten optimiert. Welche Art der oben genannten Gütekriterien berücksichtigt werden soll, muss in einem Projekt-Lastenhefit festgelegt werden. Gütekriterien (Regelgüte, Inte- gralkriterien, Güte des Regelverhaltens): Man versteht darunter ein Maß für die zeitli- che Abweichung der Sprungantwort der Regelabweichung y(t) zur Sprungfunktion der Führungsgröße w(t) über den vollen Einschwingvorgang durch Integration. Bei diesen Integralkriterien wird die Regelabweichung w(t) - y(t) für die Dauer des Einschwing- vorgangs auf verschiedene Arten integriert. Unterschieden wird die: lineare Regelflä- che.

quadratische Regelfläche, Betragsregelfläche: (Integration des Betrages der Regelab- weichung) ITAE-Kriterium: Durch Multiplikation mit der Zeit werden die kleinen Schwingamplituden stärker berücksichtigt.

Fuzzy-Regler beziehen sich auf die Verfahren der Fuzzy Controller, sind aber meist funktionelle Abwandlungen, Vereinfachungen oder Ergänzungen mit der Fuzzy-Logik. Im systemanalytischem Sinne ist ein Fuzzy Control System ein statisches nichtlineares Steuersystem, welches aus scharfen Eingangsgrößen eines komplexen Prozesses nach den Regeln einer Regelbasis unscharf definierte fuzzifizierte Steuergrößen und scharfe defuzzifizierte Wertesignale bildet, mit denen ein zufriedenstellendes Prozessergebnis erreicht wird.

Fuzzy-Controller arbeiten mit sogenannten„linguistischen Variablen“, welche sich auf „unscharfe Mengenangaben“ beziehen, wie zum Beispiel hoch, mittel und niedrig. Die „Regelbasis“ verknüpft die fuzzifizierten Ein- und Ausgangssignale mit logischen Re- geln wie WENN-Teil und DANN-Teil. Mit der Defuzzifizierung wird die unscharfe Menge wieder in scharfe Stellbefehle gewandelt (z. B. Ventilkombinationen für„Kraft Aufbau“ oder„Kraft Abbau“ oder„Kraft halten“).

Ein grafisches Fuzzy-Modell zeigt eine Fuzzy-Variable als skalierte Grundmenge (z. B. Temperaturbereich), deren meist dreieckförmige Teilmengen (Fuzzy-Sets) auf der Abs- zisse eines Koordinatensystems meist überlappend aufgeteilt sind. Die Ordinate zeigt den Zugehörigkeitsgrad für jeden scharfen Wert der Eingangsgröße an. Der maximale Wert des Zugehörigkeitsgrades für jeden Fuzzy-Set beträgt m= 1 X 100 %. Unstetige Regler: Bei unstetigen Reglern (auch nichtstetige Regler) ist die Ausgangs- größe u(t) gestuft. Bei einem einfachen Zweipunktregler kann die Ausgangsgröße des Reglers - die Stellgröße u(t) - nur 2 diskrete Zustände annehmen: Ist die Regelabwei- chung e(t) = w(t) - y(t) positiv, schaltet der Zweipunktregler ein, ist sie Null oder nega- tiv schaltet der Regler aus. Hat der Regler eine symmetrische Hysterese, muss die Re- gelabweichung stets einen kleinen Betrag negativ werden, damit der Regler ausschaltet und einen gleichen kleinen Betrag positiv werden, damit der Regler einschaltet. Unste- tige Regler mit den Ausgangssignalzuständen„Ein“ oder„Aus“ können auch ein pro- portionales Verhalten haben, wenn die Ausgangsgröße eines klassischen Standardreg- lers mit einem Pulsdauer-Modulator versehen wird. Die Regelstrecke wirkt dabei zur Glättung der gepulsten Signale als Tiefpass. Zweck dieses Verfahrens ist die möglichst verlustfreie Steuerung großer Energieflüsse.

Bei der Verwendung elektrischer und elektronischer Schaltelemente wie Relais, Schaltschütze, Transistoren und Thyristoren ist eine möglichst niedrige Schaltfrequenz anzustreben, um Bauelemente-Verschleiß und Alterung gering zu halten. Auch elektro- nische Bauelemente unterliegen einer Alterung, wenn sie bei erhöhter innerer Tempera- tur betrieben werden. Andererseits bedeutet eine niedrige Schaltfrequenz eine Erhöhung der Welligkeit des Signals der Regelgröße.

Wegen der durch steile Impulsflanken verursachten elektromagnetischen Störungen der Schaltvorgänge sind geeignete Entstönnaßnahmen vorzusehen. (Siehe Elektromagneti- sche Verträglichkeit) Wie auch bei linearen Übertragungssystemen interessiert die Sta- bilität eines Regelkreises mit nichtstetigen Reglern. Die effektivste Berechnungsmetho- de für den Entwurf, die Analyse und der Optimierung eines nichtstetigen Reglers im Regelkreis-Modell ist numerisch durch kommerzielle Rechenprogramme wie mit MATLAB oder Simulink zu erreichen.

Liegen solche Rechenprogramme nicht vor, so können mit der Kombination logischer Gleichungen und Differenzengleichungen beliebige Systeme und Regelkreise mit steti- gen, unstetigen, nichtlinearen und linearen Elementen relativ einfach mit beliebigen Re- chenprogrammen - vorzugsweise Tabellenkalkulation - numerisch für eine diskrete Zeit At berechnet werden. Das Verhalten der relevanten Regelkreissignale für ein Test- Eingangssignal kann direkt tabellarisch und grafisch dargestellt werden.

Zweipunktregler: Zweipunktregler können nicht nur einfachste Regelaufgaben zufrie- denstellend lösen. Sie vergleichen die Regelgröße mit einem meist hysteresebehafteten Schaltkriterium und kennen nur zwei Zustände:„Ein“ oder„Aus“. Diese so definierten Zweipunktregler haben theoretisch kein Zeitverhalten. Darunter fallen die elektrome- chanischen Regler oder Schaltkomponenten wie z. B. Bimetall-Schalter, Kontaktther- mometer, Lichtschranken. Häufig sind diese einfachen Regler nur für einen festen Sollwert geeignet. Das Hystereseverhalten des realen elektromechanischen Zweipunkt- reglers entsteht meist durch Reibungseffekte, mechanisches Spiel, zeitabhängige elasti- sche Materialverformungen und Mitkopplung des Systemausgangs auf den Eingang.

Elektronische Zweipunktregler erlauben eine sehr gute Anpassung an die Regelstrecke. Dafür werden 2 wichtige Eigenschaften des Reglers erforderlich. Die sich automatisch einstellende Schaltffequenz des Regelkreises muss durch einzustellende Parameter er- höht oder reduziert werden, um eine gewünschte optimale Schaltfrequenz zu erzielen. Dazu wird der ideale elektronische Zweipunktregler durch folgende Schaltungsmaß- nahmen erweitert: definierte (harte) Hysterese durch Mitkopplung des Reglerausgangs zum Eingang (additiver Einfluss), Zeitverhalten durch verzögernde oder verzögernd nachgebende Rückführung auf das Eingangssignal (subtraktiver Einfluss). Damit kann hinsichtlich der unterschiedlichen Arten der Regelstrecken ein gewünschtes Verhalten der Regelgröße und der Schaltffequenz erreicht werden.

Für spezielle Anwendungen der Regler und Stellglieder kann die Signalverarbeitung auch auf der Basis von pneumatischen oder hydraulischen Medien erfolgen. Die Gründe dafür sind: explosive Materialien in der Umgebung, hohe elektromagnetische Störstrah- lung, keine elektrische Energie vorhanden, pneumatische oder hydraulische Energieein- richtungen sind bereits vorhanden. Richtig angepasste Zweipunktregler an eine Regel- strecke können für die Regelgröße y(t) bessere dynamische Eigenschaften als die An- wendung eines stetigen Standardreglers bieten Dreipunktregler mit drei Schaltzuständen haben einen Eingang und zwei Ausgänge und schalten jeden der beiden Ausgänge in den Zustand„Ein“ oder„Aus“ oder„beide Aus“ in Abhängigkeit von einem bestimmten positiven oder negativen Wert des Eingangs- signals e(t). Sie erlauben, zwei unterschiedliche Energiearten zu schalten, und haben ei- ne meist symmetrische„Totzone“ mit einem oberen und unteren Grenzwert der Re- gelabweichung e(t), in der um den Nullpunkt der Regelabweichung keine Schaltaktivi- täten stattfmden.

Anwendungen findet man häufig bei motorischen Stellantrieben für Vor- und Rücklauf und in allen Arten integral wirkenden Regelstrecken. Bei proportionalen Regelstrecken mit unterschiedlichen dominanten Zeitkonstanten (Beispiel: schnelle Aufheizung und langsame Abkühlung) kann die Reaktionsgeschwindigkeit der Regelgröße für Füh- rungsgrößenänderungen verbessert werden, wenn anstelle des Zweipunktreglers an ei- ner Heizungsregelstrecke ein Kühlaggregat über einen Dreipunktregler eingeschaltet wird.

Andere Anwendungen des Dreipunktreglers mit unsymmetrischer Totzone sind bekannt zur Reduzierung der Schwankungsbreite der Regelgröße durch Regelung einer Grund- last mit aufgesetzter Teillast. Beispiel: Glühofen mit 2 Heizeinrichtungen.

Ebenso wie bei dem Zweipunktregler kann der Dreipunktregler neben der Hysterese ein gewünschtes Zeitverhalten durch eine subtraktive Rückführung auf den Eingang des Reglers mit Verzögerungsgliedem bekommen. Wie bei den Zweipunktreglern reduziert sich die Schaltfrequenz mit steigender Hysterese. Die Größe der Totzone des Drei- punktreglers kann empirisch oder durch numerische Simulation bestimmt und optimiert werden. Sie ist von der Totzeit und von der Anzahl und Größe der Zeitkonstanten bzw. Integrationskonstanten der Regelstrecke abhängig. Eine weitere Vergrößerung einer als optimal bestimmten Totzone ruft bei P- und I-Re gelstrecken größere Regelabweichun- gen gegenüber dem Sollwert hervor. Dezentrale Regelung : Die dezentrale Regelung ist ein spezieller Ansatz zur Regelung von Mehrgrößensystemen mit gleicher Anzahl m {\displaystyle m} von Ein- und Aus- gängen. Jeder Regelgröße wird ein Eingang zugeordnet, der möglichst großen Einfluss auf die Regelgröße hat. Für jedes Paar von Ein- und Ausgängen wird ein Eingrößenreg- ler entworfen und realisiert, insgesamt also m {\displaystyle m} Eingrößen-Regelkreise.

Kaskadenregelung / Typische Kaskadenregelung:Die Idee der Kaskadenregelung be- steht in der Ineinanderschachtelung von Regelkreisen. Es werden zunächst FÜlfsregel- größen mit schnellen inneren Regelkreisen geregelt, deren Sollwerte aus den Stellwer- ten der äußeren, langsameren Kreise bestehen.

Smith-Prädiktor: Ein Prädiktor nutzt direkt (nicht indirekt wie beim Beobachter) das Wissen des Regelstreckenmodells zur Vorhersage zukünftiger Regelgrößenverläufe. Dies bietet insbesondere Vorteile bei stark totzeitbehafteten Systemen, da konventionel- le Regler dann zumeist nur sehr vorsichtig eingestellt werden können. Beispiele für starke Totzeiten finden sich zum Beispiel in der Verfahrenstechnik beim Stofftransport über lange Leitungen. Um eine wesentlich aggressivere Regelung dieser Systeme zu ermöglichen, wurde in den 1950er Jahren der Smith-Prädiktor entwickelt.

Split-Range-Regelung: Die Split-Range-Regelung betrifft die Realisierung einer Stell- größe durch mehrere Aktoren mit beschränktem Wirkbereich. Beispielsweise werden zur Temperaturregelung in einem Batch-Reaktor sowohl eine elektrische Heizung als auch eine von einem Kühlmedium durchflossene Kühlschlange eingesetzt. Ein positives Stellsignal ist durch die Ansteuerung der Heizkerzen zu realisieren. Ein negatives Stell- signal hingegen bedeutet die Anforderung von Kühlung, sodass die Heizung auszu- schalten und stattdessen ein Ventil zu öffnen ist, um das Kühlmedium freizugeben. Störgrößenaufschaltung

Einschi eifige Standardregelkreise erlauben eine Optimierung des Verhaltens der Regel- größe entweder für das Führungs- oder Störverhalten. Diese Eigenschaft bezeichnet man mit einem„Freiheitsgrad“. Durch Änderung der Regelkreisstruktur kann man beim Systementwurf z. B. durch eine Vorsteuerung oder einen Vorfilter eine Unabhängigkeit des Führungs- und Störverhaltens erreichen. Diese Eigenschaft bezeichnet man als ei- nen Regelkreis mit zwei Freiheitsgraden. Ein Regelkreis mit einer Vorsteuerung erlaubt die Verbesserung des Führungsverhaltens mit folgenden Eigenschaften: Die Vorsteue- rung beeinflusst nicht das Störverhalten. Sie hat keinen Einfluss auf die Kreisverstär- kung und gefährdet damit nicht die Stabilität des Regelkreises.

Die Vorsteuerung als Pole-Nullstellenkompensation der Regelstrecke hat in der Praxis nur Modellcharakter. Die Realisierung ist schwierig, weil die erforderlichen Differen- zierglieder bei der Analog-Hardware-Lösung parasitäre Verzögerungen benötigt, bei der digitalen Software-Lösung sich sehr hohe Stellamplituden bilden. Beide Verfahren reduzieren den gewünschten Effekt. Abhilfe: Umrechnung in einen Vorfilter oder Auf- teilen der Regelstrecke in mehrere Regelkreise (z. B. Kaskadenregelung).

Folgeregelung eines Regelkreises nach einer Solltrajektorie. Bei einer Folgeregelung soll die Regelgröße möglichst schnell einer sich ändernden Führungsgröße exakt fol- gen. Die Folgeregelung besteht aus den Funktionsblöcken einer zeitabhängigen Steuer- funktion der Führungs große und aus einem Regelkreis für folgende Anwendungen: Nachfahren einer offline ermittelten Solltrajektorie für periodische Vorgänge z. B. in der industriellen Fertigung, Glättung eines Führungsgrößensprungs, um die Stellgrö- ßenbegrenzung eines Regelkreises und die damit verbundene Regelabweichung zu vermeiden, Übergang der Führungsgröße zwischen zwei stationären Zuständen inner- halb eines Zeitintervalls. Je nach Aufgabe der Trajektorensteuerung der Führungsgröße kann auch eine Abhängigkeit von weiteren physikalischen Größen gegeben sein.

Eine sich zeitlich schnell ändernde Führungsgröße erfordert eine Regelung mit schnel- lem Führungsverhalten. Greifen auch stark wechselnde Störgrößen die Regelstrecke an, muss neben dem guten Folgeverhalten auch das Störverhalten optimiert werden. Beide Ziele zu erreichen bedeuten in einem einfachen Regelkreis widersprechende Eigen- schaften und erfordern weitere regelungstechnische Maßnahmen wie z. B. das Einfügen einer Vorsteuerung als schnelle Umsetzung der Führungsgrößenänderung. Als einfaches Beispiel einer Folgeregelung kann für eine Temperaturregelung der Vor- lauftemperatur einer Zentralheizung die Führungsgröße in Abhängigkeit von der Au- ßentemperatur gesteuert werden. Das zeitliche Verhalten der Außentemperatur ist ex- trem langsam. Das Absinken der Außentemperatur führt zur gewünschten Steigerung der Vorlauftemperatur. Diese Beziehung Außentemperatur zur Führungsgröße erreicht man mittels einer X/Y-Funktionsgleichung.

Im Zusammenhang mit der Folgeregelung zu erweiterten Regelkonzepten ergeben sich Fachbegriffe wie: Bahnverfolgung, Trajektorienplanung, Trajektorienfolgeregelung, Flachheitsbasierte Folgeregelung.

Stabilität: Es existieren verschiedene Definitionen und Begriffe der Stabilität. Ein Über- tragungssystem kann monoton oder oszillatorisch instabil sein. Ein falsch dimensionier- ter Regler kann in einem Regelkreis zur oszillatorischen Instabilität führen.

Interne Stabilität: Bedeutung der Pole und der konjugiert komplexen Polpaare in der linken und rechten s-Halbebene. Wenn die Übertragungsfunktion eines Übertragungs- systems oder eines Regelkreises vorliegt: Die Pole einer Übertragungsfunktion bestim- men die Stabilität und die Geschwindigkeit der Systembewegung. Die Nullstellen einer Übertragungsfunktion haben nur Einfluss auf die Amplituden des Systems.

Ein Übertragungssystem ist intern stabil, wenn alle (Teil-)Übertragungsfunktionen nur Pole in der linken s-Halbebene haben.

Externe Stabilität (BIBO-Stabilität) Beispiel für die Darstellung der externen Stabilität (BIBO- Stabilität) bei verschiedenen Systemen: Wenn die Hardware eines Übertra- gungssystems bzw. eines Regelkreises oder eines genauen Modells mit dem Eingangs- und Ausgangssignal vorliegt: Ein Übertragungssystem gilt als extern stabil, wenn jedes beliebige beschränkte Eingangssignal an dem System auch ein beschränktes Ausgangs- signal hervorruft. Stabilität in Abhängigkeit von den Kenngrößen der Regeleinrichtung Dazu gibt es eine Vielzahl von mathematischen und grafischen Verfahren. Mathematische Modelle der Regelstrecken: Modelle beschreiben im Allgemeinen das zeitliche Verhalten dynamischer Systeme. Neben physikalischen materiellen Modellen (Beispiel: experimentelle Informationsgewinnung des Strömungsverhaltens eines Fahr- zeugs im Windkanal, Modellschiffe im hydraulischen Kanal), die aufwendig und kost- spielig sind, eignen sich besonders mathematische Systembeschreibungen für die An- wendung der Prozess-Simulation am Digitalrechner.

Die Vorteile der Prozess-Simulation sind bekannt, in weiten Grenzen sind Parame- teränderungen möglich, zerstörungsfreie Untersuchungen möglich, relativ geringe Per- sonalkosten, Zur Modellgewinnung unterscheiden sich die Verfahren der theoretischen, analytischen und experimentellen Modelle. Je nach Vollständigkeit der Kenntnisse der Modelle werden auch folgende Modellbegriffe verwendet:

Black-Box -Modelle sind unbekannte Systeme, deren Art der Eingangs- und Ausgangs- größen bekannt sind. Grey-Box -Modelle beschreiben meist Systeme deren Strukturen bekannt sind.Einfaches Beispiel: Regelstrecke mit Totzeit, globales I-Verhalten und Anschlagbegrenzung der Stellgröße. White-Box-Modelle beschreiben meist Systeme, deren mathematisches Verhalten bekannt ist, deren Parameter noch bestimmt werden müssen.

Für die Analyse, Synthese und Regelung von realen Übertragungssystemen (Regelstrecken), die meist als ein Hardwaresystem vorliegen, ist ein mathematisches Modell des Systems erforderlich.

Modelle in Form von Differenzialgleichungen beschreiben das zeitliche Verhalten des Systems exakt. Sind diese Differenzialgleichungen oder zugehörigen Übertragungs- funktionen nicht gegeben, kann das zeitliche Verhalten eines Hardwaresystems durch experimentelle Identifizierungsmaßnahmen (Experimentelle Systemidentifikation) mit Hilfe von Testsignalen ermittelt werden. Bei der prinzipiellen Vorgehensweise wird der Identifikationsalgorithmus für die Modellparameter solange verändert, bis für ein gege- benes Eingangssignal u(t) die Differenz der Ausgangsgrößen y(t) - yModell(t) innerhalb eines beliebigen Zeitablaufs des gemessenen Originalausgangs mit dem Modellausgang annäherungsweise verschwindet.

Dynamische Systeme mit konzentrierten Parametern als Eingrößen- und Mehrgrößen- systeme können sich linear, nichtlinear, zeitinvariant, zeitvariant und global - proportional, -integral und -differenzial verhalten. Systeme mit konzentrierten Parame- tern (Feder-Masse-System) haben im Gegensatz zu Systemen mit verteilten Parametern (Wärmefluss im homogenen Medium) keine räumliche Ausdehnung. Die Aufgabe eines mathematischen Modells eines realen dynamischen Prozesses oder eines noch zu pro- jektierenden technischen Prozesses dient dem Erkennen und der Vorhersage des Sy- stemverhaltens.

Das mathematische Modell eines Regelkreises beschreibt alle äußeren Einflussgrößen wie Störgrößen und Eingangssignale auf den geschlossenen Wirkungsablauf des Regel- kreises. Das Verhalten der Ausgangsgrößen wie die Regelgrößen sowie auch interes- sante Zwischengrößen (Stellgrößen) als Funktion der Eingangssignale und der Parame- ter von Regler und Regelstrecke sind von besonderem Interesse. Je nach Lastenheft der regelungstechnischen Aufgabenstellung ist für die Bestimmung eines geeigneten Reg- lers das mathematische Modell der Regelstrecke erforderlich.

In den meisten Anwendungsfällen haben Übertragungssysteme (Regelstrecken) auch nichtlineare Komponenten und sind totzeitbehaftet. Für solche Systeme wird experi- mentell durch geeignete Testsignale die Systemantwort aufgezeichnet und ein mathe- matisches Modell gesucht, das den gemessenen Verlauf der Ausgangsgröße y ( t ) {\displaystyle y(t)} reproduziert (= Experimentelle Prozessanalyse). Ein derartig defi- niertes Modell ist durch Anwendung numerischer Verfahren einfach berechenbar. Sind nichtlineare Teilsysteme im Gesamtsystem enthalten, müssen diese getrennt erfasst und durch Wertetabellen definiert werden.

Global -proportionale zeitinvariante Regelstrecken höherer Ordnung mit Totzeit lassen sich relativ genau durch zwei PT 1 -Glieder und einem Tt-Glied beschreiben. G S ( s ) = e - T t S ( T s + 1 ) 2 {\displaystyle G_{S}(s)={\frac {e L {-T_{t}\cdot s} } {(T\cdot s+l) L {2} } }}

Falls die Darstellung der transzendenten Funktion des Totzeitgliedes mit dem Rechen- programm Probleme bereitet, kann die dargestellte Modellgleichung auch praktisch identisch durch eine sehr gute Annäherung mit Ersatztotzeiten durch z. B. n = 3 PT1- Glieder wie folgt dargestellt werden:

G S ( s ) = l ( T - s + l ) 2 - ( T t n - s + l ) n (\displaystyle G_{S}(s)={\ffac {1 } {(T\cdot s+l) L {2}\cdot ({\ffac {T_{t}} (n} }\cdot s+l) L {n} } }}

Global-integrale zeitinvariante Regelstrecken lassen sich ebenso durch zwei PT1 - Glieder, einem I-Glied und einem Tt-Glied beschreiben.

Experimentelle Identifikation einer Regelstrecke mit Hilfe einer Modellregelstrecke Eine reale Regelstrecke lässt sich durch die Sprungantwort der Regelstrecke, durch die Impulsantwort der Regelstrecke oder auch durch Einspeisung einer variablen Frequenz identifizieren.

121. Messtechnik

Weitere Ausführungsformen für die Erfindung:

Verwendung des elektronischen Elementes (E) zur Verwendung für ein Element als Steuer- und/oder Regelungs- und Messtechnik- und/oder Sensorelement und/oder Verwendung des elektronischen Elementes (E), wenigstens ein Steuer- und/oder Rege- lungs- und Messtechnikgerät und/oder einen Sensor enthaltend, zur Verwendung des elekronischen Elementes (E) in der Steuerungs -, Regelungs- und Messtechnik, wobei das elektronische Element wenigstens eines der folgenden technischen Merkmale ent- hält:

Die Messtechnik befasst sich mit Geräten und Methoden zur Bestimmung (Messung) physikalischer Größen wie beispielsweise Länge, Masse, Kraft, Druck, elektrische Stromstärke, Temperatur oder Zeit. Wichtige Teilgebiete der Messtechnik sind die Entwicklung von Messsystemen und Messmethoden sowie die Erfassung, Modellierung und Reduktion (Korrektur) von Messabweichungen und unerwünschten Einflüssen. Da- zu gehört auch die Justierung und Kalibrierung von Messgeräten sowie die korrekte Reduktion der Messungen auf einheitliche Bedingungen.

Die Messtechnik ist in Verbindung mit Steuerungs- und Regelungstechnik eine Voraus- setzung der Automatisierungstechnik. Für die Methoden und Produkte der industriellen Fertigung kennt man den Begriff der Fertigungsmesstechnik. Die für die Messtechnik grundlegende Norm ist in Deutschland DIN 1319. Die Messtechnik lässt sich nach ver- schiedenen Arten des Vorgehens bei einer Messung (Messmethoden) gliedern.

Ausschlags-Methode, Nullabgleichs-Methode und Konkurrierendes. Bei der Aus- schlags-Messmethode wird der Messwert aus dem Ausschlag oder einer anderen An- zeige eines Messgerätes ermittelt.

-Beispiel: Federwaage mit Skalenbeschriftung in Gramm. Bei dieser Methode muss die Waage justiert sein.Bei der Nullabgleichs- oder Kompensations-Messmethode wird ei- ne bekannte Größe so eingestellt, dass die Differenz mit der zu messenden Größe den Wert null ergibt.

-Beispiel: Balkenwaage mit Anzeige für Drehmomenten-Gleichgewicht.

Bei dieser Methode verwendet man einen Satz von Gewichtsstücken oder verschiebbare Gewichte.

Abwandlungen dieser Grundformen; Beispiele: Bei der Vergleichs- oder Substitutions- Messmethode wird die (zur quantitativen Auswertung ungeeignete) Anzeige der zu messenden Größe nachgebildet durch eine gleich große Anzeige mittels einer einstell- baren bekannten Größe.

-Beispiel: Federwaage mit Skalenbeschriftung in Millimeter.

Bei dieser Methode muss für die Waage ein Satz von Gewichten zur Verfügung stehen. Bei der Differenz-Messmethode wird statt der zu messenden Größe ihr Unterschied zu einer Vergleichsgröße ermittelt. -Beispiel: Balkenwaage mit Skale (also mehr als nur Nullpunkt -Anzeige).

Bei dieser Methode entsteht ein Ausschlag, mit dem kleine Änderungen einer Größe wesentlich genauer messbar sind als durch Di ffer enzbi 1 dun g nach Messungen der Grö- ße selber.Bei der integrierenden Messmethode wird die zu messende Größe aus Augen- blickswerten durch Integration (je nach Technik auch durch Summation oder Zählung) gewonnen, vorzugsweise über der Zeit.

-Beispiel: Zählwerk zur Entfernungsmessung, das die Umdrehungen eines Rades er- fasst. Bei dieser Methode kann auch bei starken Schwankungen (im Beispiel in der Drehzahl) eine zuverlässige Aussage gewonnen werden. Siehe hierzu - auch zu einer Gegenüberstellung der Methoden -Digitale Messtechnik

Direkte Messtechnik: Bei der direkten Messmethode wird die Messgröße unmittelbar mit einem Maßstab oder Normal verglichen. Beispiele einer direkten Messung sind das Anlegen eines Maßstabes an die zu bestimmende Länge oder der direkte Vergleich ei- ner zu messenden elektrischen Spannung mit einer einstellbaren Referenz-Spannung auf einem Spannungs-Kompensator.

Indirekte Messtechnik: Messsysteme und indirekte Messmethoden machen Größen auch dann messbar, wenn sie auf direktem Wege nicht zugänglich sind. Man misst eine andere Größe und bestimmt daraus die Messgröße, wenn zwischen beiden aufgrund ei- nes Messprinzips ein bekannter eindeutiger Zusammenhang besteht. Beispielsweise wä- re der Abstand von Erde und Mond durch direkten Vergleich mit einem Maßstab nie- mals zu bestimmen. Über die Laufzeit von Licht- oder Radiowellen gelingt es hingegen seit 30 Jahren (heute schon auf wenige Millimeter genau).

Eine sehr alte Methode der indirekten Entfernungsmessung, mit der auch der Radius der Mondbahn bestimmt werden kann, ist die Triangulation. Von zwei Standpunkten mit bekanntem Abstand bestimmt man den Winkel, unter dem ein dritter Punkt zu sehen ist. Aus den beiden Winkeln und der bekannten Distanz kann der Abstand des dritten Punk- tes berechnet werden. Ähnlich kann der Abstand des Mondes durch indirekten Ver- gleich mit einem relativ kurzen Maßstab bestimmt werden.

Die Mehrzahl der in Alltag, Wissenschaft oder Industrie eingesetzten Messverfahren verwenden indirekte Methoden. Das unterstreicht auch die Bedeutung des Verständnis- ses von Messabweichungen und ihrer Fortpflanzung durch mehrstufige Messsysteme (siehe auch Ausgleichsrechnung und Varianzanalyse).

Simultanmessungen: Als Variante bzw. Erweiterung der indirekten Messmethoden können sog. Simultanmessungen gelten. In vielen Bereichen von Naturwissenschaft und Technik werden gleichzeitige Messungen von verschiedenen Punkten aus vor genom- men. Der Zweck ist die Elimination von Zeitfehlem, die Minimierung der Messabwei- chung oder die Aufdeckung von Quellen systematischer Messfehler.

Weitere Anwendungsbereiche des elektronischen Elementes (E), sowie Befriffsdefini- tionen für die Erfindung sind unter folgenden Lexikaeinträgen zu finden (z.B. Wikipe- dia)

Messgerät, Messeinrichtung, Multimeter, Messmittel

Messwert, Messergebnis

Messabweichung, Messgeräteabweichung, Messunsicherheit

Fehlergrenze, Fehlerfortpflanzung, Fehlerrechnung

Reduktion (Messung), Eichung

Sensor, Sensorik, Messprinzip

Messung (durch Ausfuhren von geplanten Tätigkeiten), Metrologie (als Wissenschaft vom Messen und ihre Anwendung)

Schaltzeichen zur Messtechnik

Grundlagen der elektrischen Messtechnik

Vertiefend zu den vorstehenden Themen sind zu nennen:

-Zeitabhängigkeit von Messgrößen, konstante oder in ihrer (langsamen) Veränderung erfassbare Größen, als einzelner Messwert, Folge von Messwerten, Liniendiagramm Augenblickswerte schnell veränderlicher, vorzugsweise periodischer Größen als stehendes Bild auf Bildschirm, durch Mittelwertbildung erfassbare Größen als Gleichwert, Gleichrichtwert, Effektivwert

-Elektromechanische anzeigende Messgeräte z. B. Analogmultimeter

deren Fehlergrenzen

-Digitalelektronische anzeigende Messgeräte

-z. B. Digitalmultimeter deren Fehlergrenzen

-Registrierende Messgeräte z. B. Oszilloskope, Messschreiber

-Anpassende Messgeräte z. B. Messumformer, Messumsetzer, Messverstärker deren Messsignale-Messverfahren -für elektrische Größen z. B. Widerstandsänderung, Wirk- leistung-für nicht elektrische Größen z. B. Temperatur, Druck

Einteilung nach physikalischen Größen

-Druck ® Druckmessgerät, Dehnungsmessstreifen, Barometer - Pa, Bar

-Durchfluss ® Durchflussmesser, Durchflusssensor - m 3 /s, 1/min, kg/s

-Elektrische Spannung Spannungsmessgerät - V

-Elektrischer Strom ® Strommessgerät - A

-Frequenz ® Frequenzmesser, Frequenzzähler - Hz

-Geschwindigkeit Geschwindigkeitsmessung, Tachometer - m/s

-Kr aft ® Kraftmessung, Kraftaufiiehmer - N

-Länge/Weg/Tiefe ® Entfernungsmessung, Wegsensor - m

-Temperatur ® Thermometer, Widerstandsthermometer, Thermoelemente - K, °C, °F

Es wird ausdrücklich darauf hingewiesen, daß die vorgenannten und nachstehenden Be- reichsangaben und Intervalle sämtliche innerhalb der Bereichsangaben und Intervalle liegende Einzelwerte und Zwischenintervalle bzw. Zwischenbereichsangaben umfassen, ohne daß es einer ausdrücklichen Erwähnung von Einzelwerten bzw. Zwischeninterval- len oder Zwischenbereichsangaben bedarf.

Nachfolgend werden Ausführungsbeispiele der Erfindung anhand der Zeichnung näher beschrieben. Dabei zeigt Fig. 1 ein Konzept- und Ablauf- und Organisationsschema des elektrisch ange- steuerten Anzeigenelementes und/oder des elektronischen Elementes mit der erfindungsgemäßen Verwendung, vorzugsweise als ein Rechner- und/oder Computerelement und/oder als ein Vorrichtungs- und/oder Bauteilelement , vorzugsweise Anzeige- und/oder Fahrzeug- und/oder Roboter-und/oder Fortbewegungsmittel- und/oder Elektrogeräte- und/oder Mobiltelefon- und/oder Smartphone- und/oder Satellitentelefon - und/oder Mess- und/oder Datenerfassungseinrichtungs- und/oder Da- tenverarbeitungseinrichtungs- und/oder Nutzanwendungselement, insbe- sondere mit wenigstens einer Identifikations und/oder Authentifizierungs- funktion. Die Grundidee besteht darin eine sichere digitale Kommunika- tion zu ermöglichen durch die Verwendung von wenigstens zwei elek- tronischen Elementen die miteinander definiert digital kommunizieren mit vorzugsweise computergestützten, zumindest teilweise automatisier- ten und/oder autonom abfolgenden Verfahren und/oder Verfahrensschrit- ten, vorzugsweise zur Authentifizierung und/oder zur Steurung und/oder Fernsteuerung,

Fig. 2 ein Konzept- und Ablauf- und Organisationsschema mit Verwendung ei- nes elektronischen Elementes mit der erfindungsgemäßen Verwendung erfindungsgemässen N2X Verkehrssteuerung und Verkehrstelematik vor- zugsweise in einem dezentralen Peer to Peer Netzwerk mit Verwendung des erfindungsgemässen Blockchainverfahrens und des verschlüsselten Verfahrens zur Authentifizierung,

Fig. 3 ein Konzept- und Ablauf- und Organisationsschema mit Verwendung ei- nes elektronischen Elementes mit der erfindungsgemäßen Verwendung erfindungsgemässen N2X Verkehrssteuerung und Verkehrstelematik vor- zugsweise in einem dezentralen Peer to Peer Netzwerk mit Verwendung des erfindungsgemässen Blockchainverfahrens und des verschlüsselten Verfahrens zur Authentifizierung vorzugasweise über ein terrestrisches und/oder satellitenbasiertes Funknetz, vorzugsweise auf Basis der 5G Technologie mit der erfindungsgemässen automatisierten Steuerung von Fahrzeugen und/oder der Verkehrsinffastrukturelemente, wobei jedes Fahrzeug und/oder Infrastrukturelement das elektronische Element auf- weist,

Fig. 4 ein Konzept- und Ablauf- und Organisationsschema mit Verwendung ei- nes elektronischen Elementes mit der erfindungsgemäßen Verwendung erfindungsgemässen N2X Verkehrssteuerung und Verkehrstelematik vor- zugsweise in einem dezentralen Peer to Peer Netzwerk insebsondere für den Schienenverkehr mit Verwendung des erfindungsgemässen Block- chainverfahrens und des verschlüsselten Verfahrens zur Authentifizie- rung vorzugasweise über ein terrestrisches und/oder satellitenbasiertes Funknetz, vorzugsweise auf Basis der 5G Technologie mit der erfin- dungsgemässen automatisierten Steuerung von Schienenfahrzeugen und/oder von Bahninfrastrukturelementen, wobei jedes Schienenfahrzeug und/oder Infrastrukturelement das elektronische Element aufweist,

Fig. 5 ein Konzept-, und Ablauf- und Organisationsschema des elektrisch ange- steuerten Anzeigenelementes und/oder des elektronischen Elementes mit der erfindungsgemäßen Verwendung für ein Fahrzeugkennzeichnungs- element zur erfindungsgemässen N2X Verkehrssteuerung und Verkehr- stelematik,

Fig. 6 ein Konzept- und bevorzugtes Ausführungsbeispiel des elektrisch ange- steuerten Anzeigenelementes und/oder des elektronischen Elementes mit der erfindungsgemäßen Verwendung für ein Fahrzeugkennzeichnungs- element. Insbsondere die Verwendung als digitales KFZ - Kennzeichen bietet in Verbindung mit dem erfindungsgemässen Telematikmodul zahl- reiche neue Anwendungsbereiche,

Fig. 7 eine schematische Darstellung eines Konzept- und Ablauf- und Organisa- tionsschemas des elektrisch angesteuerten Anzeigenelementes und/oder des elektronischen Elementes mit der erfindungsgemäßen Verwendung für ein TV-/Femseher - und/oder Werbedisplay. Insbesondere die 5G Technologie ermöglicht neue Anwendungen für die Ansteuerung von Anzeigeelementen, insbesondere für das Datenstreaming,

Fig. 8 eine schematische Darstellung des Konzept- und Ablauf- und Organisati- onsschemas eines privaten, autarken, vorzugsweise denzentralen digitalen Peer to Peer Netzes, auf Basis eines terrestrisch und/oder satellitenbasier- ten Funknetzes, vorzugsweise auf auf Basis der 5G Technologie,

Fig. 9 schematische Ansicht/Draufsicht und Konzept- und Ausführungsbeispiel einer erfindungsgemäßen digitalen All-In Element/-Modul Smartcard Card (O, Omnicard) mit einem Beispiel der Personalausweisfünktion. Die Omnicard wird vorzugsweise als Chipkarte und/oder als Smartphoneele- ment ausgebildet, mit unterschiedlichen Hardwaremodulen, wie z.B dem Kamera- und/oder Scanner- und/oder Sensor- und/oder Infrarotlichtmo- dul, zur Erfassung der Originalkennung und/oder des Originalkennungs- elementes, welches in diesem Beispiel nicht dargestellt ist,

Fig. 10 eine schematische Seitenansicht und Konzept- und Ausführungsbeispiel einer der erfindungsgemäßen (O, Omnicard) als Smartphoneelement,

Fig. 11 eine schematische Ansicht/Draufsicht und Konzept- und Ausführungsbei- spiel einer erfindungsgemäßen digitalen Smartvorrichtung (O, Omnicard) mit Beispiel für ein Displaylayout für die Iriserkennung, sowie der Ka- mera- und hiffarotlichtfunktion und mit schematischer Darstellung der Harwaremodule, wobei die Iris des Nutzers das Originalkennelement ist, welches vorzugsweise als ein Schlüssel des Verschlüsselungscodes ver- wendet wird zur Authentifizierung des Nutzers mittels des geheimen ver- schlüsselten Verfahrens. Das Scannermodul ist in dieser Darstellung in dem Anzeigemodul und/oder dem Anzeigeelement enthalten,

Fig. 12 eine schematische Ansicht und ein Konzept- und Ausführungsbeispiel des erfindungsgemäßen Blockchainverfahrens mit schematischer Dar- stellung mehrerer Nutzer, die die Replik desselben Transaktionsdatensat- zes verwenden, mit dem ID - Code als nicht manipulierbare Signatur ei- nes Nutzers und dem Zeitstempel, wobei der Nutzer mittels des gehei- men ID-Codes authentifiziert wird durch das erfindungsgemässe ver- schlüsselte Vefahren, wobei eine Blockchain vorzugsweise wenigstens aus den zuletzt zwei vernetzten Blöcken, vorzugsweise aus den zuletzt acht vernetzten Blöcken, besteht,

Fig. 13 ein Konzept- und Ausfuhrungsbeispiel als schematische Grundrissdarstel- lung mit der erfindungsgemäßen Verwendung des elektronischen Ele- mentes für die Überwachung und/oder Kontrolle des toten Winkels bei einem LKW,

Fig. 14 eine schematische Ansicht eines mobilen, figürlichen Roboters und/oder

Fortbewegungsmittel zur Verrichtung und/oder Unterstütung mechani- scher Tätigkeiten mit der erfindungsgemäßen Verwendung des elektroni- schen Elements vorzugsweise als Roboter in der Medizintechnik und/oder im Pflege- / Care -Bereich,

Fig. 15 eine schematische Ansicht eines Maschinenroboters und/oder Fortbewe- gungsmittels zur Verrichtung und/oder Unterstütung mechanischer und/oder mit der erfindungsgemäßen Verwendung des elektronischen Elements , vorugsweise für industrielle und/oder landwirtschaftliche An- wendungen,

Fig. 16 eine schematische Ansicht eines Landroboters und/oder Landfahrzeuges mit der erfmdungsgemäßen Verwendung des elektronischen Elements. Insbsondere die erfindungsgemässe N2X Steuerung von Fahrzeugen jed- weder Art ermöglicht zahlreiche neue Anwendungen. Insbesondere als wirtschaftliche alternative zu autonomen Fahrzeugen mit kostenintensiver Sensortechnik. Nach dem derzeitigen Stand der Technik kostet allein die Ausrüstung eines autonomen Fahrzeuges mit Sensor- und Supercompu- tertechnik etwa 120.000 - 140.000 Euro,

Fig. 17 eine schematische Ansicht eines Wasserroboters und/oder Wasserfahr- zeuges mit der erfindungsgemäßen Verwendung des elektronischen Elements. Insbsondere die erfindungsgemässe N2X Steuerung von Er- kundungsfahrzeugen ermöglicht zahlreiche neue Anwendungen zur Er- forschung der Meereswelt und/oder zur gezielten Beseitigung des Pla- stikmülls in den Meeren mittels dafür entwickelter Roboter. Auch für den Fährbetrieb lassen sich die erfindungsgemässen Routenkreisläufe und ei- ne N2X Steuerung programmieren,

Fig. 18 eine schematische Ansicht eines Unterwasserroboters und/oder Unter- wasserfahrzeuges mit der erfmdungsgemäßen Verwendung des elektro- nischen Elements. Insbsondere die erfindungsgemässe N2X Steuerung von Unterwasser-Erkundungsfahrzeugen ermöglicht zahlreiche neue An- wendungen zur Erforschung der Meereswelt und/oder zur gezielten Be- seitigung des Plastikmülls in den Meeren mittels dafür entwickelter Ro- boter,

Fig. 19 eine schematische Ansicht eines Luftfahrtroboters und/oder Luffahrzeu- ges mit der erfindungsgemäßen Verwendung des elektronischen Ele- ments. Insbsondere die erfmdungsgemässe N2X Steuerung von Flugzeu- gen und/oder Drohnen ermöglicht zahlreiche neue Anwendungen,

Fig. 20 eine schematische Ansicht eines Raumfahrroboters und/oder Raumfahr- zeuges mit der erfindungsgemäßen Verwendung des elektronischen Elements. Insbesondere in der Raumfahrt gibt es zahlreiche Anwendun- gen für das erfmdungsgemässe elektronische Element,

Fig. 21 eine schematische Ansicht eines spurgebundenen Roboters und/oder

Fortbewegungsmittels, insbesondere Fahrzeug mit der erfindungsge- mässen Verwendung des elektronischen Elements, vorzugsweise eines Schienfahrzeuges. Insbesondere die erfmdungsgemässe N2X Steuerung von Zügen ermöglicht neue Prozessabläufe für den Schieneverkehr,

Fig. 22 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder Fortbewegungsmittel mit dem erfmdungsge- mässen elektronischen Element, wobei das plattenförmige Element vor- zugsweise eine Elektro-Antriebstechik enthält. Dieses Basis- Antriebsmodul lässt sich wirtschaftlich hersteilen und flexibel für unter- schiedliche Antriebstechniken Umrüsten, die zukünftig zu erwarten sind, wie beispielsweise schwebende Hoverboards, mit Magnetfeldtechnologie. Das plattenförmige Grundkonzept bietet eine neutrale Plattform, die viele innovative Gestaltungsmöglichkeiten für neuartige Fahrzeugkonzepte ermöglicht, da eine neutrale Ebene, als frei gestaltbare Fläche zur Verfü- gung steht

Fig. 23 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fortbewegungsmittel mit Modul und/oder Funktionselement mit dem erfindungsgemässen elektronischen Element. Die Grundidee des plattenförmigen Elementes ist es ein wirtschaftlich herstellbares Modulelement, mit der vollständigen, vorzugsweise Elek- troantriebstechnik zur Verfügung zu stellen, für das es unterschiedliche Modulaufsatzelemente gibt,

Fig. 24 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fortbewegungsmittel, vorzugsweise ausge- bildet als Rad und/oder Kettenfahrzeug,

Fig. 25 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fortbewegungsmittel mit Modul und/oder Funktionselement ausgebildet mit dem erfindungsgemässen elektroni- schen Element als Einpersonenfortbewegungsmittel, vorzugsweise als umweltfreundlicher E-Scooter ausgebildet für den innerstädtischen Indi- vidualverkehr, insbesondere für Senioren,

Fig. 26 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fahrzeug mit Modul und/oder Funktionsele- ment ausgebildet mit dem erfindungsgemässen elektronischen Element als Mehrpersonenfortbewegungsmittel, vorzugsweise ausgebildet als Shuttlefahrzeug vorzugsweise für etwa 25-40 Personen, vorzugsweise fin ¬ den öffentlichen Strassen und/oder Schienenverkehr (ÖPNV),

Fig. 27 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fahrzeug mit Modul und/oder Funktionsele- ment mit dem erfindungsgemässen elektronischen Element ausgebildet als Transportgutfortbewegungsmittel, vorzugsweise wobei das Funkti- onsaufsatzelement vorzugsweise als Container- und/oder LKW Auflie- gerelement ausgebildet ist und/oder das plattenförmige Element ein Ad- apterelement für einen handelsüblichen Seecontainer und/oder LKW Auf- lieger aufweist, Fig. 28 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fahrzeug mit Modul und/oder Funktionsele- ment und oder Funktionsaufsatz ausgebildet als Mehrpersonen- und/oder Transportgutfortbewegungsmittel mit T ransportfunktion mit dem erfin- dungsgemässen elektronischen Element für wenigstens ein Einpersonen- fortbewegungsmittel, z.B. ausgebildet als Seniorenscooter, der von einem erfindungsgemässen Routenfahrzeug, etwa einem Shuttlefahrzeug trans- portiert wird,

Fig. 29 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fortbewegungsmittel mit nicht fest verbun- denem Modul und/oder Funktionselement, ausgebildet als vorzugsweise mobiler Maschinenroboter zur Verrichtung und/oder Unterstütung me- chanischer Arbeiten, vorzugsweise zum Einsatz in der Landwirtschaft, Industrie, Strassenbau oder auch als Medizinroboter mit dem erfindungs- gemässen elektronischen Element,

Fig. 30 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fortbewegungsmittel ausgebildet zum Trans- port eines Roboters zur Verrichtung und/oder Unterstütung mechanischer Tätigkeiten, vorzugsweise in havarierten Gebieten, wo für einen Men- schen eine Gefahr für Leib und Leben droht, mit dem erfindungsge- mässen elektronischen Element,

Fig. 31 eine schematische Ansicht eines plattenförmigen Elementes als Basis für einen Roboter und/oder ein Fortbewegungsmittel mit vorzugsweise Elek- tro-Antriebstechnik mit wenigstens einem in beliebiger Richtung und/oder Geschwindigkeit ansteuerbarem Motor. Dieses Motorkonzept bietet die Möglichkeit auf sehr engem Raum, sehr flexibel in alle Rich- tungen zu rangieren, Fig. 32 einen schematischen Grundriss, vorzugsweise der Figur 31, eines platten- förmigen Elementes als Basis für einen Roboter und/oder ein Fortbewe- gungsmittel mit vorzugsweise Elektro- Antriebstechnik mit wenigstens einem in beliebiger Richtung und/oder Geschwindigkeit ansteuerbarem Motor. Dieses Motorkonzept bietet die Möglichkeit auf sehr engem Raum, sehr flexibel in alle Richtungen zu rangieren,

Fig. 33 eine schematische Darstellung für ein programmiertes Handlungs- und/ oder Aktions- und /oder Ausführungsmuster, insbesondere Fahr- und/ oder Raum- und / oder Routenmuster und/oder einer programmierten vir- tuellen Begrenzung, welches wenigstens zwei und/oder dreidimensional vorgesehen ist, vorzugsweise mit wenigstens einer Service- und /oder Wartungs- und/oder Aufladestation,, insbesondere, Haltestation und /oder Basisstation, insbesondere mit Park-, Verlade-, und /oder Fortbe- wegungsmittel-Mietfunktion. Es versteht sich das ein solches Routenmu- ster auch für Flugmobile jedweder Art, wie etwa Drohnen vorgesehen werden kann, die über Sensormodule mittels des elektronischen Elemen- tes Echtzeitdaten an das Kontrollzentrum übertragen, die dann die pro- grammierte Steuerung dynamisch verändern oder regeln kann, etwa um Verkehrshindernisse zu melden und in kurzer Zeit zu beseitigen,

Fig. 34 eine schematische Darstellung für ein programmiertes Handlungs- und/ oder Aktions- und /oder Ausführungsmuster, insbesondere Fahr-und/ oder Raum- und/oder Routenmuster und/oder einer programmierten vir- tuellen Begrenzung, welches wiederkehrend und/oder umlaufend und/oder als Kreislauf vorgesehen ist. Dies ist die zentrale Basisidee der erfmdungsgemässen N2X Steuerung, die eine Splittung von komplexen Verkehrsnetzen in eine Mehrzahl von autarken Routenkreisläufen vor- sieht. Die Routenkreisläufe haben den Vorteil, dass kein Fahrplan benö- tigt wird, da wie bei einer Seilbahn, ind kurzen Abständen, vorzugsweise Shuttle Fahrzeuge für etwa 25 - 40 Personen in kurzen Abständen bereit stehen. Die Routenkreisläufe sind vorzugsweise durch Haltestationskno- tenpunkte miteinander verknüpft, so dass ein Fahrgast schnell auf eine andere Route wechseln kann. Das N2X Routenkreislauf Konzept ist in idealerweise dazu geeigenet, eine weitgehend verspätungsfreie Perso- nenbeförderung zu gewährleisten, insbesondere für den öffentlichen Nah- und Fernverkehr, insbesondere für den innerstädtischen öffentlichen Naherkehr, für den pünktlichen, stressfreien Strassen- und Schienenver- kehr, vorzugsweise zur Entlastung des innerstädtischen Grosstadtverkehrs mit deutlichen Umwelt-, Klima- und Energievorteilen,

Fig. 35 eine schematische Darstellung für ein programmiertes Handlungs- und/ oder Aktions- und /oder Ausführungsmuster, insbesondere Fahr- und/ oder Raum- und / oder Routenmuster und/oder einer programmierten vir- tuellen Begrenzung, welches bzw. welche wenigstens in eine Richtung vorgesehen ist. Der Vorteil der erfindungsgemässen Verkehrssteuerung liegt darin, dass ein beliebig verlaufendes Routenmuster mit einem unre- gelmässigem Strassenverlauf ohne Probleme einprogrammiert werden kann, im Gegensatz etwa zu einer Seilbahn, die sich nur linear bewegen kann. Darüberhinaus kann die Route auch dynamisch programmiert wer- den. Die Fahrzeuge können so programmiert werden, dass während der Fahrt die Geschwindigkeit geändert wird und/oder an einer Haltestelle ei- ne definierte Zeit zum Ein- und Austeigen vorgesehen ist oder etwa in de- finierten Abständen eine Wartung oder Aufladung der Fahrzeuge mit ein- programmiert wird. Die zentrale Konrollstation kann zudem Echtzeitda- ten mit verarbeiten und zum Beispiel die Geschwindigkeit der Fahrzeuge bei einem Verkehrhindemis verlangsamen oder alle Fahrzeuge zum Still- stand bringen. Dabei kann auch eine Programmierung vorgesehen wer- den, wobei ein liegengebliebenes Fahrzeug von dem davor und/oder da- hinterfahrendem Routenfahrzeug abgeschleppt wird, durch Andocken des Fahrzeuges mittels eines programmierten Andockszenarios mit entspre- chenden Andockadapterelementen, wobei das defekte Fahrzeug dann in die nächste Haltestation abgeschleppt wird. Dies ist in sehr kurzer Zeit möglich, etwa in ca. 5- 10 Minuten, so dass kaum Verspätungen entste- hen,

Fig. 36 eine schematische Darstellung für ein programmiertes Handlungs- und/ oder Aktions- und /oder Ausführungsmuster, insbesondere Fahr- und/ oder Raum- und / oder Routenmuster und/oder einer programmierten vir- tuellen Begrenzung, welches bzw. welche wenigstens in zwei Richtungen vorgesehen ist, vorzugsweise mit entgegengesetzte Richtungen. Der Vor- teil der erfindungsgemässen Verkehrssteuerung liegt darin, dass ein be- liebig verlaufendes Routenmuster mit einem unregelmässigem Strassen- verlauf ohne Probleme programmiert werden kann, im Gegensatz etwa zu einer Seilbahn, die sich nur linear bewegen kann und nur als Kreislauf in eine Richtung möglich ist,

Fig. 37 eine schematische Darstellung für ein programmiertes Handlungs- und/ oder Aktions- und /oder Ausführungsmuster, insbesondere Fahr- und/ oder Raum- und/oder Routenmuster oder wenigstens einer programmier- ten virtuellen Begrenzung für einen Roboter und/oder Fortbewegungs- mittel, welches umlaufend und/oder als Kreislauf vorgesehen ist und/oder wenigstens zwei (2D) und/oder dreidimensional (3D) vorgesehen ist. An der Route entlang sind vorzugsweise Sensormodule positioniert zur Über- tragung von Echtzeitdaten, wie z.B. Wetterverhältnisse oder etwa Ver- kehrsbehinderungen. Die virtuelle Begrenzung verhindert, dass eine Fahrzeug die Route verlassen kann, da sich ein Fahrzeug maximal bis zu dieser Begrenzung bewegen kann, Fig. 38 eine schematische Darstellung für ein programmiertes Handlungs- und/ oder Aktions- und/oder Ausführungsmuster, insbesondere Fahr- und/ oder Raum- und/oder Routenmuster/oder wenigstens einer programmier- ten virtuellen Begrenzung für einen Roboter und/oder Fortbewegungs- mittel, welches umlaufend und/oder als Kreislauf vorgesehen ist und vorzugsweise wenigstens zwei und/oder dreidimensional vorgesehen ist, insbesondere wenigstens in zwei Ebenen räumlich übereinander vorge- sehen ist, vorzugsweise für den Schienenverkehr, wobei die Fahrzeuge am Ende der Route über ein Aufzug und/oder Hebeelement auf die unte- re und/oder obere Ebene befördert werden. Nicht dargestellt ist, das dass Hebeelement vorzugsweise als Drehteller mit 360 Grad Drehbewegung ausgebildet ist, damit ein Fahrzeug nach Beförderung in eine der Ebenen wieder um 180 Grad in die entgegengesetzte Fahrtrichtung gedreht wer- den kann,

Fig. 39 eine schematische Darstellung für ein Konzept und die Logistik für ein programmiertes Handlungs- und/oder Aktions- und /oder Ausführungs- muster, insbesondere Fahr- und/oder Raum- und/oder Routenmuster/oder wenigstens einer programmierten virtuellen Begrenzung für einen Robo- ter und/oder Fortbewegungsmittel, welches umlaufend und/oder als Kreislauf vorgesehen, wobei die physische Route wenigstens eine Ser- vice- und /oder Wartungs- und/oder Aufladestation,, insbesondere, Hal- testation und /oder Basisstation, insbesondere mit Park-, Verlade-, und /oder Fortbewegungsmittel-Mietfunktion, aufweist, die vorzugsweise an einem Endbereich der Route vorgesehen ist,

Fig. 40 eine schematische Darstellung für ein Konzept und die Logistik für ein programmiertes Handlungs- und / oder Aktions- und /oder Ausführungs- muster, insbesondere Fahr- und / oder Raum- und / oder Routenmu- ster/oder wenigstens einer programmierten virtuellen Begrenzung für ei- nen Roboter und/oder Fortbewegungsmittel, welches umlaufend und/oder als Kreislauf vorgesehen wobei die physische Route wenig- stens zweiService- und /oder Wartungs- und/oder Aufladestation,, insbe- sondere, Haltestation und /oder Basisstation, insbesondere mit Park-, Verlade-, und /oder Fortbewegungsmittel-Mietfunktion, aufweist, die in den beiden Endbereichen der Route vorgesehen sind,

Fig. 41 eine schematische Darstellung für ein Konzept und die Logistik für ein programmiertes Handlungs- und / oder Aktions- und /oder Ausführungs- muster, insbesondere Fahr- und / oder Raum- und / oder Routenmu- ster/oder wenigstens einer programmierten virtuellen Begrenzung für ei- nen Roboter und/oder Fortbewegungsmittel, welches umlaufend und/oder als Kreislauf vorgesehen ist, wobei die physische Route we- nigstens einer Service- und /oder Wartungs- und/oder Aufladestation, insbesondere, Haltestation und /oder Basisstation, insbesondere mit Park-, Verlade-, und /oder Fortbewegungsmittel-Mietfunktion, aufweist, die wenigstens an einer Längsseite der Route vorgesehen ist, vorzugswei- se wenigstens zwei Haltestationen in beide Richtungen vorgesehen sind Die schematische Darstellung zeigt vorzugsweise zwei an einer Route gegen überliegende Halte und/oder Basis- Haltestation,

Fig. 42 eine schematische Darstellung für ein Konzept und die Logistik für ein programmiertes Handlungs- und / oder Aktions- und /oder Ausführungs- muster, insbesondere Fahr- und / oder Raum- und / oder Routenmuster und /oder wenigstens einer programmierten virtuellen Begrenzung für ei- nen Roboter und/oder Fortbewegungsmittel, welches umlaufend und/oder als Kreislauf vorgesehen ist, wobei die physische Route we- nigstens eine Halte und/oder Basis- Haltestation aufweist, die wenigstens an einer Längsseite der Route vorgesehen ist und wenigstens eine damit verbundene Station mit insbesondere mit Park-, Verlade-, und /oder Fort- bewegungsmittel-Mietfimktion, aufweist, wobei die Station vorzugsweise ein- oder mehrgeschossig vorgesehen ist,

Fig. 43 eine schematische Darstellung für ein Konzept einer städtischen, autono- men Verkehrssteuerung und /oder -Lenkung und /oder- Kontrolle und /oder -Logistik mittels eines programmierten Handlungs- und / oder Ak- tions- und /oder Ausführungsmusters, insbesondere Fahr- und / oder Raum- und / oder Routenmusters und /oder wenigstens einer program- mierten virtuellen Begrenzung für einen Roboter und/oder ein Fortbewe- gungsmittel, wobei die die physische Route für den städtischen und /oder innerstädtischen Verkehr vorzugsweise ring- und/oder sternförmig aus- gebildet ist und vorzugsweise separate Transportgutrouten und Routen für den öffentlichen und /oder privaten Personenverkehr aufweist,

Fig. 44 eine schematische Darstellung für ein Konzept einer innerstädtischen, autonomen Verkehrssteuerung und /oder -Lenkung und /oder- Kontrolle und /oder -Logistik mittels eines programmierten Handlungs- und / oder Aktions- und /oder Ausführungsmusters, insbesondere Fahr- und / oder Raum- und / oder Routenmusters und /oder wenigstens einer program- mierten virtuellen Begrenzung für einen Roboter und/oder ein Fortbe- wegungsmittel, wobei die physische Route vorzugsweise ring- und/oder sternförmig ausgebildet ist und vorzugsweise separate Transportgutrou- ten und Routen für den öffentlichen und/oder privaten Personenverkehr aufweist,

Fig. 45 eine detaillierte schematische Darstellung für ein Konzept und /oder - Lenkung und /oder- Kontrolle und /oder -Logistik einer innerstädtischen, autonomen Verkehrssteuerung mittels eines programmierten Handlungs- und / oder Aktions- und /oder Ausführungsmusters, insbesondere Fahr- und / oder Raum- und / oder Routenmusters und /oder wenigstens einer programmierten virtuellen Begrenzung für einen Roboter und/oder ein Fortbewegungsmittel, wobei die physische Route vorzugsweise ring- und/oder sternförmig ausgebildet ist und vorzugsweise separate Trans- portgutrouten und Routen für den öffentlichen und/oder privaten Perso- nenverkehr aufweist,

Fig. 46 eine schematische Querschmttsansicht des elektrisch angesteuerten An- zeigenelementes als mehrlagiger Schichtaufbau ,

Fig. 47 eine schematische Querschnittsansicht des elektrisch angesteuerten An- zeigenelementes als mehrlagiger Schichtaufbau und

Fig. 48 eine schematische Querschnittsansicht des elektrisch angesteuerten An- zeigenelementes als mehrlagiger Schichtaufbau mit einer Fase im Rand- bereich und randloser, gedruckter Elektronik im Randbereich.

Die Fig. 6 stellt schematisch ein bevorzugtes Ausführungsbeispiel eines erfindungsge- mäßes digitalen Kennzeichens 31 dar.

Das vorzugsweise als Foliendisplay ausgebildete digitale Kennzeichen hat eine dabei eine bevorzugte Größe von 520 x 110 mm und ist vorzugsweise kompatibel mit stan- dardisierten Kennzeichenhalterungen- und Befestigungen und ist dazu geeignet in der BRD , Europa oder auch weltweit verwendet zu werden.

Das Layout für die Gestaltung der Displayoberfläche ist exemplarisch zu verstehen. Selbstverständlich ist die Programmierung der Displayoberfläche frei definierbar und es können weitere Informationen , wie Zeichen oder Bilder programmiert und drahtlos angesteuert werden. Auch die dargestellte funktionelle Ausstattung, wie etwa Kamera und Videofunktion, Energieversorgung und die Sensorfunktionen sind nur exempla- risch zu verstehen. Die Fig.13 stellt schematisch im Grundriss dar, wie dass das Anzeigeelement 2 und/oder das Hardwareelement 27 und/oder das elektronische Element und/oder die Sensorfunktion vorzugsweise zur Überwachung und/oder Kontrolle des toten Winkels a des Fortbewegungsmittels, insbesondere bei einem Lastkraftwagen L, vorzugsweise durch wenigstens ein Kamera- und/oder Sensorelement, vorzugsweise einem Ultra- schallsensor, vorzugsweise mit einem optischen und/oder akustischen Warnsignal für die Fahrerkabine und/oder für die gefährdete Person, insbesondere Radfahrer R, ver- wendet werden kann.

Nicht dargestellt in Fig.13 ist, dass das Anzeigeelement 2 und/oder das elektronische Elemente E, und/oder das Hardwareelement 27 und/oder das Sensormodul grundsätz- lich auch nach diesem Prinzip zur Überwachung und/oder Kontrolle eines Indoor- und/oder Outdoorbereiches, vorzugsweise für ein Gebäude und/oder ein Grundstück und/oder einen Innenraum und /oder für einen Roboter und/oder Fortbewegungsmittel, verwendet werden

In den vergangenen fünf Jahren starben in Deutschland 163 Radfahrer, weil sie mit rechtsabbiegenden LKWs kollidiert sind. Dabei weisen die Unfälle fast immer das glei- che Muster auf. LKW-Fahrer können Radfahrer und ebenso Fußgänger, die im toten Winkel verschwinden, vom Kopf ihrer drei Meter hohen LKWs nicht sehen. Aufgabe der Erfindung ist es, solche Unfälle durch eine techn sehe Anordnung am LKW zu ver- hindern.

Erfindungsgemäß wird vorgeschlagen, das erfindungsgemäße digitale Verkehrszeichen drahtlos, vorzugsweise über eine Bluetoothverbindung mit wenigstens einem Kamera- und / oder Sensorelement und mit dem Bordcomputer zu verbinden Dabei wird vor- zugsweise auf der rechten Seite des LKWs, optional auch in den weiteren mit a ge- kennzeichneten Toten- Winkel- Bereichen wenigstens eine Kamera und /oder ein Sen- sorelement am LKW angebracht. Durch die Anbringung von mehreren Kameras und/oder Sensorelementen, an allen 4 Steiten des LKWs, vorzugsweise auf der rechten und linken LKW Seite, z.B. im vorde- ren und im hinteren Bereich des LKWs, lassen sich die gesamten toten Winkelberei- che und zusätzlich die Raumbereiche b und c des LKW kontrollieren. Der tote Winkel kann nun durch Kamera-Live Übertragung am Bordcomputer und /oder einer separaten Überwachungseinrichtungs-Hardware durch den Fahrer kontrolliert werden. Radfahrer und/ oder Fußgänger werden durch die Kamera und /oder den Sensor erkannt und lösen automatisch vorzugsweise ein optisches und/ oder akustisches Warnsignal in der Fah- rerkabine aus.

Optional kann auch gleichzeitig der Radfahrer durch ein optisches und/oder akustisches Warnsignal gewarnt werden. Als Sensor eignet sich beispielsweise ein Bewegungssen- sor und /oder ein Sensor, der die Körperwärme der Person misst, vorzugsweise auf dem technischen Prinzip einer Wärmebildkamera basierend und/oder einem Ultraschallsen- sor, der vorzugsweise als integrierter Sensor in der Kamera vorgesehen ist.

Fig.39 zeigt schematisch die Anbindung und Logistik einer Halte- und/oder Basishalte- station El auf für ein wiederkehrendes, lineares und umlaufendes Routenmuster. Da- bei ist die Haltestation quer zur Fahrtrichtung der Route angeordnet. Eine Haltestation weist dabei wenigstens folgende Bereiche auf:

Einen Einfahrbereich 60, insbesondere eine Einfahrspur, auf der das angesteuerte Fahr- zeug mit verringerter Geschwindigkeit die Route verlässt und dort im Aussteigebereich 58 hält. Nach dem Aussteigen fährt das Fahrzeug weiter in den Einsteigebereich 59.

Nachdem weitere Personen zugestiegen sind fährt das Fahrzeug in den Ausfahrbereich 57 ein, insbesondere in die Ausfahrspur und fädelt sich dann durch beschleunigen im Einfädelungsbereich 61 zwischen zwei Fahrzeugen ein, so dass wieder der definierte Abstand k zwischen zwei Fahrzeugen eingehalten wird. Der komplette Prozess und Ablauf ist automatisiert und wird vom Kontrollzentrum aus ferngesteuert. Wobei jedes Fahrzeug, vorzugsweise im Bordcomputer das elektronische Element aufweist, mit wenigstens einer Ausführungsdatei, die das Routenmuster ent- hält, vorzugsweise mit einer Mehrzahl von Routenmustem. Grundsätzlich fuhrt das Fahrzeug durch Selbststeuerung das Routenmuster aus, ohne das es der Steuerung durch das Kontrollzentrun bedarf.

Das Kontrollzentrum, ein Mensch, überwacht die Selbsteuerung und greift korrigierend und steuernd ein, wenn in der Route z.B. ein Verkerhrshindemis auftaucht, welches durch die Erfassung von Echtzeitdaten vom Kontrollzentrum erkannt werden kann. Die Echzeitdaten werden von den Sensormodulen, die sich im Routenbereich befinden an die Kontrollstation übertragen, wobei jedes Sensormodul das elektronische Element E enthält. Weitere Echtzeitdaten liefert z.B. eine Drohne über das Kameramodul mit dem enthaltenden elektronischen Element an das Kontrollzentrum. Eine Routenmuster wird vorzugsweise durch ein Testfahrzeug ermittelt. Ein Testfahrer fahrt mit dem Testfahr- zeug die Route solange ab bis ein optimales Routenmuster digital erfasst wurde, vor- zugsweise über die Ortungs- und Sensormodule des Testfahrzeuges. Die erfassten digi- talen Daten der Route werden weiterverarbeitet, so dass daraus im Ergebnis die Ausfuh- rungsdatei mit dem Routenmuster für ein Routenfahrzeug erzeugt wird.

Dabei ist erfindungsgemäß vorgesehen, dass die Energieversorgung, vorzugsweise selbsttätig an einer Halte- und/oder Basisstation El, vorgesehen ist, insbesondere mit- tels drahtloser Energieübertragungsfunktion, insbesondere mittels elektromagnetischer Induktion. Zudem kann eine Route Über- und/oder Unterführungen 56, insbesondere Brücken und/oder Tunnel aufweisen

Der Abstand k zwischen zwei Fahrzeugen wird programmiert in Abhängigkeit ver- schiedener Faktoren, wie z.B. Fahrgeschwindigkeit oder Ein -und Aussteigezeiten oder Personenaufkommen in Stosszeiten etc. Das Kontrollzentrum steuert sämtliche Routen- fahrzeuge, vorzugsweise im Verband an und kann beispielsweise das Tempo aller Fahr- zeuge erhöhen oder verringern, abhängig vom Beförderungsbedarf. Selbstverständlich kann auch jedes Fahrzeug einzeln und individuell angesteuert werden.

Fig.37 zeigt schematisch die Anbindung und Logistik von zwei Service- ST / Halte- station H auf für ein wiederkehrendes, lineares und umlaufendes Routenmuster.

Dabei sind beide Haltestation H längs zur Fahrtrichtung der Route angeordnet, vor- zugsweise einander gegenüberliegend. Eine Haltestation weist dabei wenigstens die in Fig. 35 beschriebenen Bereiche 56-61 auf

Dabei zeigt das Fahrzeug i ein Fortbewegungsmittel, dass in die in Haltestation ein- fährt. Fahrzeug j zeigt ein Fortbewegungsmittel, welches die Haltestation verlässt sich in den fließenden Verkehr einfädelt.

Fig.38 zeigt schematisch die Anbindung und Logistik einer Service-/ Haltestation H und einer angeschlossenen Mietfahrzeugstation Station mit Fortbewegungsmittel- Mietfunktion M, ein- oder mehrgeschossig ausgebildet, für ein wiederkehrendes, linea- res und umlaufendes Routenmuster.

Dabei ist die Haltestation H und auch die Station M längs zur Fahrtrichtung der Route angeordnet, vorzugsweise einander gegenüberliegend. Eine Haltestation weist dabei wenigstens die in Fig. 35 beschriebenen Bereiche 56-61 auf

Dabei zeigt das Fahrzeug i ein Fortbewegungsmittel, dass in die in Haltestation ein- fährt. Fahrzeug j zeigt ein Fortbewegungsmittel, welches die Haltestation verlässt sich in den fließenden Verkehr einfädelt.

Aus dem Austeigebereich 58 gelangt man zur Mietfahrzeugstation M, die vorzugsweise unterschiedliche Elektro- Mietfahrzeuge für den städtischen Individualverkehr, insbe- sondere für den Innenstadtbereich anbietet. Dies sind zum Beispiel Mehrpersonenfort- bewegungsmittel m und /oder Einpersonenfortbewegungsmittel n und/oder Trans- portgutfortbewegungsmittel p . Vom Austeigebereich 58 kann man auch direkt mit einem Fahrzeug von der autonom gesteuerten öffentlichen Route in den Individualverkehr wechseln, in dem automatisch in einen Individual- Fahrmodus gewechselt wird. Dies ist insbesondere vorgesehen für Transportgutfahrzeuge p, die ohne umzuladen direkt eine innerstädtische Anlieferung ausführen und für Einpersonenfahrzeuge n, die in einem öffentlichen Fahrzeug mitge- führt werden.

Fig. 43 zeigt eine schematische Darstellung für ein Konzept einer städtischen, autono- men Verkehrssteuerung und/oder -Lenkung und/oder- Kontrolle und /oder -Logistik mittels eines programmierten Handlungs- und/oder Aktions- und/oder Ausführungs- musters, insbesondere Fahr- und/oder Raum- und/oder Routenmusters und/oder wenig- stens einer programmierten virtuellen Begrenzung für einen Roboter und/oder ein Fort- bewegungsmittel, wobei die physische Route für den städtischen und/oder innerstädti- schen Verkehr vorzugsweise ring- und/oder stem- und/oder rasterförmig ausgebildet ist und vorzugsweise singuläre Transportgutrouten und/oder singuläre Routen für den öf- fentlichen und /oder privaten Personenverkehr aufweist.

Eine derartige stem- und /oder ringförmig ausgebildete innerstädtische Erschliessung ist insbesondere für Großstädte, wie etwa München geeignet. Dazu ist vorgesehen, dass geeignete Routen und Fahrbahnsbschnitte vorzugsweise umgenutzt werden für die au- tonome öffentliche Verkehrssteuerung. Bei den Routen wird unterschieden zwischen Transportgüterrouten (gestrichelte Darstellung) und routen für den öffentlichen Perso- nenverkehr. Vorzugsweise an den Routenknotenpunkten befinden sich logistische Hal- te und/oder Basishaltestationen El, E2 wie folgt:

Es ist vorgesehen, dass die dass die physische Route wenigstens Halte und/oder Basis- haltestationen El, E2 mit einer Wartungs- und/oder Aufladestation enthält, insbeson- dere, Haltestation Hl, H2 für die Verladung von LKW Transportgütern, die vor- zugsweise auf Verladeparkplätzen am äusseren Ring einer Stadt verladen werden, um dann innerstädtisch über eine Gütertransportroute zum Zielort geliefert zu werden. Vorzugsweise ist an eine Halte und/oder Basishaltestationen El, E2 ein Parkhaus Gl und/oder eine Mietfahrzeugstation J angeschlossen .

Vorzugsweise in den Stadtrandbereichen, beispielsweise auf dem äußeren Stadtring sind ein oder/mehrgeschossige Parkplätze und Parkhäuser, sowie Verladestationen für den Transportgüterverkehr vorgesehen. Hier werden die LKW Auflieger Module mit Waren und Gütern , auf die vorzugsweise plattenförmigen Fahrzeug -Elemente 54 um- geladen und über eine Transportgüterroute 44 in den Innenstadtbereich befördert. Auf diese Weise wird eine Innnestadt vollständig vom Schwerlastverkehr freigehalten.

Ebenso befinden sich im Stadtrandbereich Parkplätze und/oder Parkhäuser G, mit Park & Ride Anschluss für den öffentlicher Verkehr mit den erfindungsgemässen N2X Rou- tenkreisläufen. Von hier aus führen Routenkreisläufe für den öffentlicher Personen- verkehr 45 in den Innenstadtbereich und den Innenstadtkem 46, der vorzugsweise au- tofrei gehalten wird und nur für den öffentlichen Verkehrsbetrieb, sowie für Mietfahr- zeuge und emissionsfreie Kleinmobile vorgesehen ist.

Es versteht sich, dass bei der Erschließung für eine Stadt eine Route auch rasterförmig, zum Beispiel als orthogonales Raster, wie etwa schachbrettförmig, ausgebildet werden kann.

In Fig. 46 ist ein mehrlagiger Schichtaufbau A und/oder Verbundschicht A dargestellt. Der erfindungsgemäße Schichtaufbau des elektronisch angesteuerten Anzeigeelementes 2 sieht eine Schicht 1 mit dem elektronischen Element E vor, das optional in eine Füll- schicht F eingebetet wird, die zum Beispiel durch eine Bedruckung hergestellt werden kann. Darüber angeordnet befindet sich das Anzeigeelement 2, mit einer metallhaltigen elektrischen Beschichtung, vorzugsweise hergestellt durch eine gedruckte Elektronik auf Basis von OLED und/oder Micro LED und/oder elektronischer Tinte und einer op- tional darüber angeordneten oberen Schicht 3 in Form einer transparenten ein-oder mehrlagigen Schicht 3, die eine Schutzfunktion aufweist. Vorzugsweise wird dabei ein Foliendisplay auf Basis einer Folie, die insbesondere Kunststoffe auf Basis synthetischer und/oder halbsynthetischer Polymere und / oder Biopolymere und /oder organischer Stoffe aufweist verwendet, wobei die Folie von vorzugsweise eine Stärke von lnm ( Nanometer) bis 1000 mm ( Mikrometer) aufweist, insbesondere 20 bis 100 mm.

Weiterhin ist vorgesehen, dass die Folie und/oder die verwendeten Kunststoffe und /oder organischen Stoffe eine metallhaltige Beschichtung und /oder metallhaltiges Ma- terial zur Ausbildung der Elektronik aufweist bzw. aufweisen, bestehend aus Metallen und/oder Halbmetallen und oder Metalllegierungen und/oder aus chemischen Verbin- dungen von Metallen und/oder Halbmetallen vorzugsweise auf Basis von polymerer Verbindungen, wobei die metallhaltige Beschichtung vorzugsweise mittels Bedruckung erfolgt, insbesondere mittels einer gedruckten Elektronik 2d .

Die zuvor genannten Schichten werden Vorzugsweise als vorgefertigte Verbundschicht A hergestellt. Diese kann dann als Verbundprodukt weiterverarbeitet werden. Die be- vorzugte Stärke der Verbundschicht beträgt lnm von bis zu 4,5 mm.

Diese Verbundschichten können bei der weiteren Verarbeitung auf eine Träger und /oder Untergrundschicht 5 aufgebracht werden. Grundsätzlich kann die Verbundschicht auf jede geeignete Trägerschicht 5 und /oder Untergrundschicht 5 aufgebracht werden du besteht vorzugsweise aus folgenden Materialien: Papier, Karton, Kunststoff, Schichtstoff ( HPL, CPL, DKS), Kunststofffolie, Elastomer, Kautschuk, Schaumstoff, Metall, steinbasierten-, feinsteinzeugbasierten-, mineralischen-, keramischen-, zement- basierten-, gipsbasierten- Untergründen und/oder Materialien oder Glas , insbesondere auch Gipskartonplatten, Gipsfaserplatten, Putzuntergründe und Holzwerkstoffplatten wie zum Beispiel OSB-, HDF-, MDF-, Spanplatte oder Kombinationen dieser Materia- lien. Dabei kann die Trägerschicht auch heterogen und/oder ein-oder mehrschichtig aufgebaut sein. In der Vorfertigung werden die Schichten 1, 2, 3, 4, F zu einer Verbundschicht A zu- sammengefugt und optional anschließend mit der unterseitigen Schicht 4 und/oder mit der Trägerschicht 5 und/oder Untergrundschicht 5, vorzugsweise durch Kaschieren mit einer Rollenkaschiermaschine, vorzugsweise als Thermokaschierung und/oder durch eine Flächenkaschierung auf einer Flächenkaschieranlage oder als Nass- oder Trocken- kaschierung oder durch Laminieren, thermisches Verbinden und/oder Kleben, Heißkle- ben oder thermisches Direktfugen oder auch mittels doppelseitiger Klebefolien.

Die Kunststofffolien in der Definition dieser Erfindung können auch in Form von ge- schmolzenem Kunststoff, zum Beispiel als geschmolzenes Polymer aufgetragen werden zur Erzeugung der transparenten ein- oder mehrlagigen oberen Schicht, vorzugsweise durch Kalandrieren oder Gießen.

Dabei ist von Vorteil, wenn die Verbundschicht A optional eine unterseitige Schicht 4 als Haftvermittlerschicht und/oder selbstklebende Schicht zur Trägerschicht 5 aufweist. Die unterseitige Schicht 4 kann dabei weitere Funktionen übernehmen, vorzugsweise als Ausgleichsschicht, um Unebenheiten der Trägerschicht auszugleichen. Dies ist vor- teilhaft bei der Oberfläche von Holzwerkstoffen, die auf Grund Ihrer Rauigkeit, Unre- gelmäßigkeiten oder Unebenheiten durch die Verbundfolie durchtelegrafieren.

Des Weiteren kann die unterseitige Schicht 4 auch Schutzfunktion für die Schichten 1 und 2 übernehmen, um das Anzeigeelement bzw. die gedruckte Elektronik, sowie das elektronische Element und weitere Elemente , wie Akkumulatoren oder elektrische Lei- terbahnen, vor Feuchtigkeit und mechanischer Beanspruchung zu schützen, wie zum Beispiel von Kratzverletzungen der metallhaltigen Elektronikschichten 1 und 2 Schicht zum Beispiel im Verarbeitungsprozess oder auch in der Gebrauchsfunktion.

Weiterhin kann die unterseitige Schicht 4 auch Dämpfungsfunktion übernehmen, vor- zugsweise um die akustischen Eigenschaften der Verbundfolie zu verbessern, wie etwa den Trittschall bei Bodenbelägen. Zudem kann die unterseitige Schicht 4 auch als Adapterschicht zu einer spezifischen Trägerschicht ausgebildet werden. Zum Beispiel kann die Schicht 4 als melaminbeharz- tes Papier für die Verpressung in einer Kurztaktpresse oder als Papiervliesschicht zur Verklebung der Verbundschicht A mit einem Putzuntergrund vorgesehen werden. Diese Ausführungsform ist besonders für die Anwendungsbereiche Tapeten, Dekorpapiere, Dekorfolien und Kantenmaterial geeignet.

Ein besonders bevorzugter Anwendungsbereich ist die Herstellung von elektrisch ange- steuerten Anzeigeelementen 2 als programmierbare Displayfläche mit gedruckter Elek- tronik anstatt physischer, gedruckter Dekore in der Holzwerkstoff- und Möbelindustrie, für den Innenausbau, Möbeloberflächen, Bodenbelägen und Fassaden- und Architektur- oberflächen, sowie im Car -Interior und -Exteriorbereich , wie zum Beispiel Caravan. Die Herstellung erfolgt dabei vorzugsweise bei Dekordruckherstellem in Form von Dekorpapieren, Folien, Dekorfolien, Finishfolien und Melaminfilmen, die zukünftig auch das Feld der gedruckten Elektronik besetzen werden. Es versteht sich, dass auch Tiefzieh-, Umantelungs und Postformingfolien und Laminate derartig hergestellt wer- den können.

Die Verwendung einer Verbundfolie mit gedruckter, elektronischer Tinte und /oder die Verwendung eines Elektronischen Papiers (E-Paper) hat zudem den Vorteil, dass ein sogenannter bistabiler Displayzustand entsteht. Dies bedeutet, dass bei Beendung der Stromzufuhr das letzte Bild sichtbar gespeichert bleibt. Bei derartigen Displays wir nur beim Bildwechsel Strom benötigt.Eine bevorzugte Ausf hrungsform des E-Papers hier- bei ist die Verwendung einer Elektrolytfolie mit der Verwendung von elektrochromen Molekülen. In eine derartige Folie können auch dekorative und/oder funktionelle Mu- ster eingeprägt werden. Die bevorzugte Stärke einer solchen Folie liegt bei 0,01mm bis 0,5 mm, wobei die Folie vorzugsweise hochflexibel, biegsam, rollbar und faltbar vorge- sehen ist. Aus gestalterischen und /oder funktionellen Gründen kann die gedruckte Elektronik auch nur bereichsweise bzw. partiell vorgesehen werden, so dass zum Bei- spiel die Schicht 1 oder 4 oder 5 als gestalteischer, dekorativer Hintergrund sichtbar wird , zum Beispiel aus holzhaltigem oder metallhaltigem Material Weitere wichtige Anwendungsbereiche der Verbundfolie A sind zum Beispiel die er- findungsgemäßen Anwendungen von TV/ Femseh- und Werbedisplays 30, sowie Fahrzeugkennzeichnungselemente 31 und/oder amtliche Kennzeichen 31, die mit den vohergehend genannten Herstellverfahren al besonders witschaftliche Massenprodukte hergestellt werden können.

In Fig. 47 ist ein mehrlagiger Schichtaufbau A und/oder Verbundschicht A dargestellt als Variante der Fig. 46 Es gelten hier alle Beschreibungen der Fig. 46 Im Vergleich zur Fig. 46 weist diese Ausfuhrungsform zusätzlich eine Technikschicht T auf. Diese wird zur Aufbringung und/oder Anordnung zum Beispiel von elektrischen Leiterbahnen oder weiterer elektronischer Elemente, wie zum Beispiel der Stromversorgung mittels eines Akkumulators oder einer Batterie oder Prozessor-, Speicherelemente oder des elektronischen Elementes E und vorgesehen und bilden eine weitere Möglichkeit die notwendige Technik für das Anzeigeelement 2 unterzubringen. Es versteht sich, dass die Technikschicht T optional ist und die gesamte vorgenannte Technik/ Elektronik auch in der Schicht 1, 2, 3,4 oder 5 integriert werden kann.

Die elektrischen Leiterbahnen 7, mit der elektrischen Plus- und Minuspol Ausführung, werden vorzugsweise durch Bedruckung von metallischem und/oder metallhaltigem Material hergestellt.

Zwischen den Leiterbahnen und dem Akkumulator und weiteren Elektronischen Ele- menten ist optional eine Füllschicht F vorgesehen als elektrische Isolationsschicht und/oder als Ausgleichsschicht, damit sich Unebenheiten nicht an der Oberfläche der Verbundfolie abzeichnen, wie z.B. eine Leiterbahn, die als Kontur sichtbar wird, ohne eine Füllschicht. Die Füllschicht F wird vorzugsweise durch die Beschichtung mit ei- nem elektrisch isoliemden Material vorgesehen, vorzugsweise kunststoffhaltig, insbe- sondere hergestellt durch Bedrucken und/oder Lackieren und oder durch eine aufge- brachte maskierte Negativschicht, die die elektronischen Elemente ausspart, d.h. die Zwischenräume ausfullt. Das Anzeigeelement 2 kann rahmenlos und/oder mit einem Rahmenelement verwendet werden. Zudem kann dass das Anzeigeelement eine randlose gedruckte Elektronik aufweisen, vorzugsweise mit elektrischer Isolierung im Randbereich.

Die Randbereiche und /oder Randseiten 9 eines Anzeigeelementes mit gedruckter Elek- tronik sind vorzugsweise elektrisch isolierend ausgebildet, vorzugsweise durch eine iso- lierende Beschichtung, insbesondere Lackierung und/oder Versiegelung und/oder Ver- schweissung und /oder Verschmelzung von wenigstens zwei-oder mehreren Folien- schichten der Schichten 1,2, 3 ,4, ld, T, F

Die Stromversorgung des Anzeigeelementes 2 wird vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und/oder ei- nes Akkumulators 8 und/oder Induktionsstroms und /oder durch Funkstrom und /oder durch Ultraschallübertragung, vorzugsweise mit piezotechnikbasierten Sensoren er- zeugt. Beim Induktionsprinzip wird vorzugsweise ein Sender auf Basis einer magneti- schen Dipolspule und beim Funkstrom vorzugsweise eine Sekundärspule verwendet.

Optional kann die gesamte notwendige Versorgungstechnik für das Anzeigeelement 2 auch in einer externen Anschlussbox (All in one box) ausgelagert werden, z.B durch Inte- gration in Hohlräume von Bauelementen wie z.B. Trennwänden oder Fussleisten.

In Fig. 48 ist ein mehrlagiger Schichtaufbau A und/oder Verbundschicht A dargestellt als Variante zu Fig. 46 mit einer Fase im Randbereich 9 und/oder an Randseite 9. Es gelten hier alle Beschreibungen der Fig. 46 und Fig. 47

Um einen definierten und sauberen Randabschluss des Anzeigeelementes zu gewährlei- sten, schlägt die Erfindung vor, dass der Randbereich des elektrisch angesteuerten Dis- plays/Anzeigeelementes 2 eine Fase und /oder einen Radius und/oder eine frei gestalte- te Kontur aufweist, vorzugsweise im Bereich zwischen 0,1 und 2 mm. Dies hat den Vorteil, dass bei der Anordnung von mehreren Anzeigeelementen als zusammenhän- gende Fläche ein sauberer Übergang erzuegt wird und so ein nahtloser Bildübergang entsteht, wenn die Anzeigeelemente auf Stoss verlegt werden. Durch eine Fase und/oder einen Radius entsteht bei zwei gestossenen Anzeigeelementen eine kantige bzw bogenförmige V-Fuge als Gestaltungselement. Durch die V-Fuge werden zudem mögliche Höhenunterschiede durch Verlegeungenauigkeiten -bzw. Masstoleranzen zweier Anzeigeelemente ausgeglichen. Dabei kann ein Stoss als eine kontaktierende Verbindung vorgesehen werden und/oder ein Spiel aufweisen in Form einer Beabstan- dung zweier Anzeigeelemente, vorzugsweise mit einer Breite von bis zu 2 mm. Da- durch einen derartigen Stoss ist zum Beispiel bei Holzwerkstoffen als Trägerschicht 5 ein Arbeiten, d.h. das Quellen und Schwinden, des Werkstoffes möglich. Als Verbin- dung zweier oder mehrerer Anzeigeelemente ist eine Rastverbindung und /oder Click- verbindung vorgesehen, so dass an wenigstens einer Randseite 9, vorzugsweise an al- len Randseiten des mehrlagigen Schichtaufbaus A und /oder der Verbundschicht (A) und/oder der Trägerschicht 5 und/oder der Untergrundschicht 5 , bevorzugt zueinander korrespondierende und/oder an einander gegenüberliegenden Randseiten komplementär ausgebildete, vorzugsweise miteinander verrastbare und/oder verbindbare, Verriege- lungskonturen vorgesehen sind, insbesondere wobei die Verriegelungskonturen als Nut- Feder- Verbindimg ausgebildet sind.

Die Randbereiche und /oder Randseiten 9 eines Anzeigeelementes mit gedruckter Elek- tronik sind vorzugsweise elektrisch isolierend ausgebildet, vorzugsweise durch eine iso- lierende Beschichtung, insbesondere Lackierung und/oder Versiegelung und/oder Ver- schweißung und /oder Verschmelzung von wenigstens zwei-oder mehreren Folien- schichten der Schichten 1,2, 3, 4, T, F

Bei Verlegung einer zusammenhängenden Fläche aus mehreren Anzeigeelementen kann jedes Anzeigeelement einzeln und/oder im Verbund programmiert und/oder an- gesteuert werden.

Die bevorzugten Anwendungsbereiche für die Verlegung von mehreren Anzeigeele- menten als zusammenhängende Fläche sind Boden-, Wand-, Decken-, Fassaden und Fassadenelemente, sowie großformatige Werbedisplays, wie zum Beispiel Bandenwer- bung oder Stadionanzeigen und öffentliche Großleinwände.

Alle Beschreibungen der Fig.48 gelten im übrigen auch für die Fig.46 und Fig.47

Bezugszeichenliste:

1 Schicht mit elektronischem Element, Schicht aus metallischem Material,

Metallisches Material ist von außen vollständig sichtbar und/oder scheint durch, Unterbrechung der Dekorschicht

1 a SIM Karte (Subsriber Identitity Module) und/oder US1M Karte

(Universal Subsriber Identitity Module) und/oder embedded SIM ( eSIM) und/oder SIM- kartenidentische Funktion aufweisendem Element , vor zugsweise mit UICC- Hardwareelement(la) (Universal Integrated Circuit Card) und/oder mit SIM und/oder USIM - Software Anwendung und/oder mit NFC-Funktion (la) und/oder NFC Hardwareelement ( Near Field Com- munication)

lb Steuerungs- und/oder Regelungs- und/oder Mess- und/oder Sensorfunktion

Steuerung , insbesondere Fernsteuerung und/oder Selbststeuerung und/oder Ansteuerung und/oder Regelung und/oder Kontrolle

lc Identifikations- und/oder Authentifizierungsfunktion

ld Trägerschicht für Beschichtunng aus metallischem Material oder metallhalti- gem Material, und Isolationsschicht z.B. als Kunststofffolie aus PP, PET le Element

lg Elektrische Leiterbahn

lh Energieversorgungs- und/oder -Stromversorgungs und/oder Akkumulator- und/oder Batterielement und/oder Akkumulator und/oder Batterie li Füllschicht

lj digitale Verknüpfung

lk Nutzanwendung

lm Internet of Things (IoT)- Anwendung

ln drahtlose Verbindung draht- und/oder kabeloses signalgebendes Übertra- gungsverfahren

lo Funknetz

lp Funkverbindung und/oder Mobilfunkverbindung und/oder Satellitenverbin- dung iq Sender- und/oder Empfängerelement

2 Elektrisch angesteuertes Anzeigeelement zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern und/oder Anzeige z.B. als gedruckte Elektronik auf Basis OLED oder Micro

LED oder elektronsicher Tinte

2a Vorrichtungs- und/oder Bauteilelement

2b Elektrogeräte- und/oder Mobiltelefon- und/oder Smartphone- und/oder Satellitentelefon - und/oder Mess- und/oder Datenerfas

sungseinrichtungs- und/oder Datenverarbeitungseinrichtungselement und/oder Elektrogerät und/oder Mobiltelefon und/oder Smartphone und/oder Satellitentelefon und/oder Messeinrichtung und/oder Datenerfas- sungseinrichtung und/oder Datenverarbeitungseinrichtung

2c gedruckte Elektronik

2d optisches und/oder akustisches Signalelement

2e Bildschirm und/oder Screen und/oder Display , insbesondere

Smart Display, und/oder Monitor und /oder Touchsreen Oberfläche

2f projezierte Oberfläche

3 Transparente, ein-oder mehrlagige obere Schicht

3a Folie und/oder Kunstofffolie und/oder geschmolzenes Polymer

3b Oberflächenausrüstungen

4 Unterseitige Schicht, optional z.B. als haftvermittelnde Schicht oder als Aus- rüstung mit selbstklebender Beschichtung

5 Trägerschicht, z.B. Trägerplatte oder Untergrund und/oder Untergrundschicht

5a Kaschierung und/oder Verpressung, und/oder Laminierung und/oder

Verklebung

5b Randbereich und /oder Randseite

6 Rechner- und/oder Computerelement

6b Rechner/Computer und/oder und/oder Steuerungs- und/oder Regelungs- und/oder Mess- und/oder Datenerfassungseinrichtungs- und/oder Datenverar- beitungseinrichtungsmodul

7 Nutzer und/oder Teilnehmer 7a Nutzanwendung, Nutzanwendungselement, Entität

7b Kontrollzentrum, Prüf- und/oder Kontrollbehörde

7c Steuerungs- und/oder Femsteuerungs- und/oder Kontroll- und/oder Frei- gabehoheit für Transaktionen

7d Elektronischer Personalausweis

7e Elektronische Patiententenakte

7f Elektronisches Einkäufen

7g Elektronisches Bezahlen

7h Elektronische Kommunikation, Email, Soziale Medien

7i Alle digitalen Angelegenheiten eines Nutzers

8 Verkehrssteuerung und/oder -regelung und/oder -lenkung und/oder - telematik

8a Digitale Kommunikation

8b Datenaustausch und/oder Datenstreaming

8c Infrastruktur und/oder Verkehrsinfrastruktur

9 Roboterelement und/oder Roboter

10 Fahrzeug- und/oder Fortbewegungsmittelelement und/oder Fahrzeug und/oder

Fortbewegungsmittel

11 IT- Infrastruktur (Information Technology)

12 Digitales Netz / Digitales Netzwerk

12a öffentliches Netz, insbesondere Internet und/oder World Wide Web(WWW)

12b privates und/oder autarkes Netzwerk, Virtual Private Network (VPN)

13 IT -Cloudstruktur

13a Computercloud

13b Rechnemetz und/oder Rechenzentrum und/oder Server

13c Routerelement und/oder Router

13d IT -Sicherheitsproblematik eines digitalen Netzwerks, insbesondere des Inter- nets und/oder des World Wide Web (WWW)

13e separierter Bereich der Computercloud, z.B. als öffentlich

zugänglicher Info- und Kommunkationsbereich

14 verschlüsseltes Buchführungssystem 14a Blockchainverfahren und/oder Blockchainsystem und/oder Blockchainprinzip

14b Blockchain

14c Blockchainkonto

14d einzelner Block einer Blockchain

14e verschlüsseltes Verfahren

14f höchste IT-Sicherheit durch eine autarke und verschlüsselte IT-

Infrastruktur und/oder digitales Netzwerk, vorzugsweise für eine Blockchain Demokratie

14g öffentlich zugängliches Konto und/oder Ordner

15 Anzeige- und/oder Touchscreen- und/oder Tastatur- und/oder

Kameramodul und/oder -funktion

16 Videokameramodul und/oder -funktion

17 Scannermodul und/oder -funktion

18 Sensormodul und/oder -funktion

19 Infrarotlichtmodul und/oder -funktion

20 Wärmebildkameramodul und/oder -funktion

21 Lautsprechermodul und/oder -funktion

22 Mikrofonmodul und/oder -funktion

23 Funk- und/oder Sender- und/oder Empfänger- und/oder Antennen- und/oder

Frequenz- und/oder Ortungsmodul und/oder -funktion und/oder

Ortsbestimmung

24 Lidar-/Ladar- und/oder Ultraschallsensor- und/oder Aktoren- und/oder Laser- und/oder Radar-und/oder Konnektivitäts- und/oder Telemetrie- und/oder Telematikmodul und/oder-funktion

25 vorzugsweise autarkes Betriebssystem

26 Software und/oder APP Anwendung

26 a Programmmittel zur Bilderkennung

27 Hardwarelement

27a Hardwaremodul

27b Prozessor- und Speicherfunktion 27c Chip- und/oder Speicherkarte und/oder Chip und/oder Chipelement und/oder chipkarten- und/oder speicherkartenidentischen Funktion aufweisendes Ele- ment

28 Verschlüsselungscode

28a Bildscan und/oder Foto,

28b Geräte- und/oder Fahrgestellnummer und/oder IMSI Kennung (International

Mobile Subscriber Identity, internationale Mobilfunk-Teilnehmerkennung) und/oder ICCED - Kennung (Integrated Circuit Cart ED) und/oder IMEI- Nummer ( Mobile Equipment Identity) und/oder MSISDN-Nummer ( Mobi- le Station ISDN Number)

28c ID- Code (Identity) Identitätscode

29 Überwachung und/oder Kontrolle des toten Winkels des Fahrzeuges

30 Werbeschild und/oder Fernseher, insbesondere LED Fernseher

31 Fahrzeugkennzeichnungselement und/oder Element als amtliches Kennzei- chen

32 Straßen- und/oder Wege- und/oder spurgebundenes Fahrwegenetz und/oder

Fahrwegenetz

32a Straßen- und/oder Wege- und/oder spurgebundenes Fahrwegenetzelement (3 und/oder Fahrwegenetzelement

32b spur- und/oder schienengebundenes Verkehrssystem- und/oder Schienennetz) und/oder Bahnanlage und/oder Bahninfrastruktur

32c Bahnhof und/oder Stellwerk

32d Stellwerks-, insbesondere als Rangier- und/oder Ablauf- und/oder Zentral- und/oder Strecken- und/oder Knotenstellwerkselement

32e Gleis- und/oder Gleissperr- und/oder Weichen- und/oder Bahnübergangssi- cherungsanlagenelement

33 Verkehrs- und/oder Verkehrshindemiserkennung

33a Aufklärungs-Robotersund//oder Aufklärungs—Fortbewegungsmittels

34 Bordcomputer des Roboters und/oder Fortbewegungsmittels und/oder des

Gerätes und/oder des Elektrogerätes

35 Konnektivitätsfunktion 37 Drohne

38 Quadrocopter und/oder Multicopter

39 spurgebundenes Fahrzeug und/oder spurgebundener Roboter,

39a schienengebundenes Verkehrsmittel und/oder schienengebundenes Rollmate- rial und/oder Schienenfahrzeug und/oder eine Eisenbahn und/oder ein Eisen- bahnwagen und/oder ein Zug und/oder Lokomotive und/oder ein Triebfahr- zeug

40 Landroboter und/oder Landfahrzeug

41 Wasser- und /oder Unterwasserroboter und/oder Wasser-/Urrterwasserfahrzeug

42 Flugmobil, Luftfährtfahrzeug und/oder Luftfahrtroboter

43 Flugmobil, Raumfahrzeug und/oder Raumfahroboter

44 Transportgüterroute

45 Route für den öffentlichen und/oder privaten Personenverkehr

46 Innenstadtkem, vorzugsweise autofrei, nur für den öffentlichen Verkehrsbe- trieb und für Mietfahrzeuge und emissionsfreie Kleinmobile

47 Modul- und/oder Funktionselement, insbesondere Modul-und/oder Funktions- aufsatzelement

48 ein in beliebiger Richtung und/oder Geschwindigkeit ansteuerbarer Motor

49 ein programmiertes Handlungs- und/oder Aktions- und/oder Ausführungs- und/oder Herstellungsmuster , insbesondere ein Fahr- und / oder Raum- und / oder Routenmuster

50 programmiertes Handlungs- und/oder Aktions- und/oder Ausführungsmuster, insbesondere Fahr- und / oder Raum- und / oder Routenmuster, das wieder- kehrend und/oder linear und/oder umlaufend und/oder als Kreislauf vorge- sehen ist.

51 programmiertes Handlungs- und/oder Aktions- und/oder Ausführungsmuster, insbesondere Fahr- und / oder Raum- und / oder Routenmuster, das wenig- stens zwei (2D) und/oder dreidimensional (3D) vorgesehen ist.

52 programmiertes Handlungs- und/oder Aktions- und/oder Ausführungsmuster, insbesondere Fahr- und / oder Raum- und / oder Routenmuster, das wenig- stens in zwei Ebenen räumlich übereinander vorgesehen ist. 53 programmiertes Handlungs- und/oder Aktions- und/oder Ausfuhrungsmuster, insbesondere Fahr- und/oder Raum- und/oder Routenmuster,

das wenigstens in eine Richtung vorgesehen ist.

54 Plattenförmiges Element

55 Aufzugelement und/oder Hebeelement

56 Über- und/oder Unterführung, insbesondere Brücke und/ oder Tunnel

57 Ausfahrbereich, insbesondere Ausfahrspur

58 Aussteigebereich

59 Einsteigebereich

60 Einfahrbereich, insbesondere Einfahrspur

61 Einfadelungsbereich

62 Individualverkehr, insbesondere innerstädtischer Individualverkehr

63 programmierte, virtuelle Begrenzung und/oder Limitierung

64 virtuelle Einschalttaste, vorzugsweise mit grüner Beleuchtung

65 virtuelle Ausschalttaste, vorzugsweise mit roter Beleuchtung

66 vorzugsweise autarke Weltraumsatelliten , als Funkstationen im Weltraum, vorzugsweise für ein 5G Mobilfunknetzwerk

67 vorzugsweise autarkes Funkwellennetzwerk auf der Erde und im Weltraum, vorzugsweise als 5G Mobilfunknetzwerk

68 vorzugsweise autarke Funkbasisstationen auf der Erde, vorzugsweise für ein

5G Mobilfunknetzwerk

69 Europa

70 Firewall, Schnittstelle für Daten Import/Export

71 Datenimport mit Virenscan und Portierung in EU Betriebssystem

72 Datenexport mit Dateikonvertierung

73 Digitale Blockchain-Demokratie

74 Blockchaincloud Strassenverkehrsamt

A mehrlagiger Schichtaufbau und/oder Verbundschicht Verbundschicht, vorge fertigte Verbundschicht, z.B. als Kaschierung auf Schicht 5 B Bluetooth - und/oder BLE- und/oder Bluetosec- und/oder NFC- und/oder RFID- und/oder WL AN- und/oder WIFI- und /oder LiFi-Verbindung und/oder Infrarotverbindung

C Funktionselement und /oder eine Funktionssubstanz und/oder ein Funk- tionmittel

D vorzugsweise ein-oder mehrgeschossige, Service- und /oder Wartungs- und/oder Aufladestation

E Elektronisches Element mit Prozessor- und Speicherfunktion

F Füllschicht, optional, zwischen den Leiterbahnen und Akku

El Halte- und /oder Basishaltestation, vorzugsweise eingeschossig

E2 Haltestation und /oder Basisstation, zwei- oder mehrgeschossig

F 1 Güterstation für Güterverkehr, ein- oder mehrgeschossig

G Station mit Parkfunktion, insbesondere Parkplatz, Parkhaus, mit Park & Ride

Anschluss für öffentlichen Verkehr, ein- oder mehrgeschossig

Gl Parkplatz, Parkhaus nur für Anwohner des Innestadtkems, ein- oder mehrge- schossig

Hl Station mit Verladefunktion, insbesondere Parkplatz, Parkhaus für Transport- güterverkehr mit Transportgüterladung, ein- oder mehrgeschossig

J Mietfahrzeugstation, ein- oder mehrgeschossig, Station mit Fortbewegungs- mittel-Mietfunktion,

K autonome Verkehrssteuerung eines Kreuzungs- und/oder Einmündungsberei- ches

L LKW

LI F ahrer des LKW

M Radfahrer

N Ultraschallsensor

O Omnicard, All-In-Element/-Modul/-Smartcard

T Technikschicht, optional, für z.B. elektrische Leiterbahnen mit Plus Pol und Minus Pol und/oder Stromversorgung durch Akku/ Batterie a Toter Winkel

b Sichtbereich des LKW Fahrers

c Spiegel - Sichtbereich

d LKW biegt nach rechts ab

e Kamera und Sensorbereich

f Bauhöhe

g Rolle und /oder Rad und /oder Kette

h Rolle und /oder Rad, vorzugsweise lenkbar

i Fortbewegungsmittel fährt in Haltestation ein

j Fortbewegungsmittel verlässt Haltestation und fädelt sich in fliessenden

Verkehr ein

k Abstand zwischen zwei Fortbewegungsmitteln, insbesondere Fahrzeugen

1 Anzeige Status Kennzeichen

m Mehrpersonenfortbewegungsmittel

n Einpersonenfortbewegungsmittel

o Transportgutforbewegungsmittel

p Anzeige Status Schadstoffklasse/ Euronorm

q Anzeige Status Hauptuntersuchung, TÜV

r Anzeige Status Länderkennzeichen

s Schnittstellen- und /oder Verbindungsfunktion

t Anzeige Status Kreis/ Stadt

u bevorzugtes Format : 520 x 110 mm