Smart Cities – Die überwachte Gesellschaft

Smart Cities – Die überwachte Gesellschaft

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) beauftragte das Fraunhofer Institut für experimentelles Softwareengineering (IESE) und das deutsche Institut für Urbanistik (Difu) eine praxisorientierte Studie zu erstellen, um KI in die Stadtentwicklung einzubetten.

73 deutsche Städte meldeten sich als Modellprojekte für die überwachte Stadt an. Berlin und Heidelberg sogar als C40-Städte, die zusätzlich auf Autoverkehr, Fleisch- und Milchprodukte verzichten wollen, also Städte für gesunde, junge, kinderlose Veganer entwickeln wollen.

Seit 2019 wird das„Modellprojekt Smart Cities“ vom Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen begleitet, die Studie soll das Praxiswissen in die Breite tragen und auch für kleinere und mittlere Kommunen zur Verfügung stellen.

Der Data Act

Smart City – Die überwachte Gesellschaft

2023 verabschiedete das EU-Parlament den Data Act, um die überwachten Städte zu legitimieren und aus den Daten seiner Bürger finanzielle Vorteile zu ziehen, unter dem Motto „Daten sind das neue Öl“.

Verschiedene Modelle der Smart Cities werden unter weiteren Begriffen zusammengefasst als Intelligente Städte, C40 mit strengen „Klimaauflagen“, 15-Minuten-Städte, in denen der Bürger eine Zone von 15 Minuten um seinen Wohnort diesen nicht mehr verlassen muss und soll, oder Smart Cities.

Die Studie

Smart City Modelle in Deutschland

Die Studie lotet Nutzungspotenziale aus und schlüsselt technische und nichttechnische Voraussetzungen einer erfolgreichen Integration von KI in Kommunen auf … KI wird bereits erfolgreich für die Verschränkung der operativen und planerischen Ebene, die Nutzung, Aufbereitung und Verknüpfung sektorübergreifender Daten, das (teil-)automatisierte Infrastruktur-Monitoring, die bedarfsgerechte Steuerung und Verteilung von Ressourcen sowie für bessere Zugangsmöglichkeiten zu kommunalen Diensten und Prozessen für Bürgerinnen und Bürger eingesetzt. Aus technischer Sicht häufen sich dabei vor allem Leistungen der KI im Hinblick auf Mustererkennung (Modelle der Bild- und Videoerkennung), Planung (Vorhersagemodelle) und Interaktion (generative Modelle) …
Die Überwachung und auch die Sanktionierung von etwaigen Verstößen (z. B. Geldbußen) gegen
die vorgenannten Pflichten aus dem AI Act wird für Anbieter von GPAI die Kommission tragen und muss im Übrigen von einer nationalen Behörde übernommen werden, die die Mitglieds-Staaten bis zum 2. August 2025 zu benennen haben. In Deutschland wird dies voraussichtlich die Bundesnetzagentur sein (Stand: Mai 2025).“

Die Studie hat 125 Handlungsfelder der KI für Städte und Regionen untersucht, diese umspannen folgende Bereiche:

  • Energie und Umwelt
  • Infrastruktur
  • Wohnen
  • Wirtschaft
  • Soziales und Integration
  • Gesundheit
  • Bildung und Kultur
  • Stadtentwicklung und Planung
  • Mobilität
  • E-Government
  • Sicherheit

Es wurden unterschiedliche Modell-Projekte untersucht, z.B. untersucht Bamberg den eigenen Baumbestand und dessen Pflegebedarf mit Drohnen, Konstanz verfolgt eine intelligente Steuerung der Stromnetze, um erneuerbare Energien besser zu integrieren und Hamburg wertet anhand von Sprachmodellen Rückmeldungen aus der Bevölkerung aus, erkennt und bündelt so Themen.

eID (ID2020), ePA, Sensoren, Gesichtserkennung, Autoerkennung, biometrische Daten, wie Fingerabdrücke und die Gendatenbank, sozialer Status, Einkaufsverhalten, CO2-Verbrauch, Smart Homes (Heizüberwachung, Kühlschranküberwachung pp.) produzieren eine Unmenge an Daten, die gebündelt und durch KI ausgewertet werden sollen für Forschung, Industrie und Staat.

Die Gefahren

Smart Cities – Die überwachte Gesellschaft

Lindner kündigte 2022 an, dass auf dem Personalausweis der Bürger ihre sämtlichen Daten zusammengeführt werden sollen, auch gegen den Willen der Bürger. Die eID soll den gläsernen Bürger ermöglichen über den gläsernen Patienten (ePA) hinaus.

In der Smart-City-Charta von 2017, die inzwischen nur noch in verkürzter Form zur Verfügung steht, war noch zu lesen, mit den Smart Cities könnten Wahlen abgeschafft werden, da der Staat durch die Totalüberwachung mit Sensoren besser wisse, was der Bürger wolle, als der Bürger selbst.

In Paris müssen bereits mehrere hundert Euro bezahlt werden, sollte ein Auto in die Innenstadt fahren, in GB zerstörten Aktivisten einen Großteil der neu installierten Überwachungskameras wieder. Auch in Deutschland gab es am 09. September 2025 einen Anschlag auf die Stromversorgung in Berlin, der den Firmen galt, die für den militärisch-finanziellen Komplex die Daten der Bürger sammeln, zusammenführen und auswerten sollen. Anarchisten bekannten sich auf der linksradikalen Plattform Indymedia dazu.

In China werden schon längere Zeit verschiedene Modelle der Smart Cities mit Sozialkreditsystem angetestet, das erwünschtes Verhalten von Bürgern belohnt und unerwünschtes abstraft. Dazu gibt es einige arte-Dokumentationen.

Offiziell soll es in der EU kein Sozial-Kredit-System geben, aber auch Deutschland hat bereits mehrere Modellprojekte zum Sozialkreditsystem durchgeführt, so durften in der Corona-Krise nur Menschen, die Staat, Militär, Oligarchen und Industrie gehorchten und sich an den experimentellen Genversuchen beteiligten, am öffentlichen Leben teilnehmen und in manchen Regionen erhalten Asylbewerber eine Bezahlkarte mit digitalem Geld statt Bargeld, das sie nur für bestimmte Produkte und mit einer regionalen Begrenzung ausgeben dürfen. Bargeld zur freien Verfügung erhalten sie lediglich 50 Euro pro Monat. So kann das digitale Geld selbst ohne Smart City zum digitalen Gefängnis werden.

Quelle:

Smart-City-Dialog

Künstliche Intelligenz in smarten Städten und Regionen

Hirn-Organoid mit KI und Chimären

Brainoware aus menschlichem Minihirn mit KI

Hirn-Organoid mit KI: Forscher um Hongwei Cai der Indiana Universität haben ein aus menschlichen Zellen gezüchtetes Hirn-Organoid mit Elektronik verknüpft, sodass ein Hybrid-Computer entstanden ist.

Mensch-Maschine-Verschmelzungen waren lange Zeit Utopien der Transhumanisten und Stoff für Science Fiction.

Doch Mensch-Maschine-Schnittstellen, Cyborgs und Roboter mit Hirn sind mit der Zusammenarbeit von Neurobiologie und Technik auf dem Weg aus den Vorstellungen von Transhumanisten und Science-Fiction-Autoren zur Realität zu werden.

Nature Electronics entwickelte z.B. einen Hirn-Organoiden mit elektronischer Umgebung, der Sprache lernen kann und mathematische Gleichungen lösen.

Selbstlernende Systeme aus reinen KI-Systemen, wie ChatGPT benötigen Millionen Watt, um funktionieren zu können, außerdem können sie bis heute kein Bewusstsein ausbilden und benötigen jahrelanges Training. Selbstlernende Systeme aus KI sind Energiefresser. Schon länger arbeiten Wissenschaftler daran, sie mit lebendigen Geweben zu verbinden. Das menschliche Hirn benötigt im Vergleich nur wenige Watt.

Von der Stammzelle zum Organoid

Hirnorganoid

Ein Organoid ist eine Organstruktur, die in vitro dreidimensionale Gewebestrukturen eines Organs aus Stammzellen entstehen lässt.

Hirnorganoide können für bestimmte Hirnareale mit der entsprechenden Gewebestruktur in Nährlösung entwickelt werden. Sie bestehen aus Nerven- und Gliazellen. Sie werden heute aber nicht größer als eine Erbse, ein komplettes Gehirn kann noch nicht herangezüchtet werden.

Die Hirn-Organoide reagieren ähnlich wie ein menschliches Gehirn auf Reize und senden elektrische Signale aus, sie ändern ihre Reaktionen und bilden Verknüpfungen.

Hirn-Organid mit KI-System

Von der KI zur Brainoware

Forscher um Hongwei Cai der Indiana Universität haben ein aus menschlichen Zellen gezüchtetes Hirn-Organoid mit Elektronik verknüpft, sodass ein Hybrid-Computer entstanden ist.

Sie platzierten ein Hirn-Organoid auf einer Elektrodenplatte, so konnten sie die Hirnströme ableiten und es Reizen aussetzen. Das Netzwerk erhält eine externe elektrische Stimulation und sendet Ausgaben über die neuronale Aktivität des Minihirns, als Basis für eine biologisch-elektrische KI.

Zunächst sollte die „Brainoware“ lernen japanische Silben zu erkennen, dafür wandelte die externe Elektronik die akustischen Signale in elektrische Pulse um und leitete sie an das Hirn-Organoid weiter. Die Reaktion des Minigehirns wurde dann von der Elektronik wieder dekodiert.

Anfangs produzierte das Hirn-Organoid nur Zufallstreffer, während es nach 4 Trainings-Einheiten bereits eine Trefferquote von 78% erreichte, die japanischen Silben zu erkennen.

Auch die Struktur des Hirn-Organoiden veränderte sich, es entwickelte mehr Verknüpfungen als untrainierte Organoide und neue Synapsen .

Künstliche Intelligenz soll so effizienter und leistungsfähiger werden.

Die sogenannte Brainoware lernte durch Training nichtlineare Gleichungen zu lösen und Sprachsilben zu erkennen.

Hongwei Cai u.a. stellten ihre Arbeit im Dezember 2023 in nature vor. https://www.nature.com/articles/s41928-023-01069-w

Erste bioorganische Hybridsysteme waren Roboter mit Nervenzellen.

Mensch-Nager-Chimären

Hirn-Organoide in Ratten

Ein Forscherteam um Omer Rehvar, Felicity Gore, Kevin W. Kelley der Stanford Universität USA, Abteilung Psychiatrie und Verhaltensforschung, untersuchte Chimären aus Ratten, denen ein menschliches Hirn-Organoid eingepflanzt wurde.

Da in vitro erzeugte Hirn-Organoide die Untersuchungsmöglichkeiten begrenzen, weil sie sich in vivo nicht vernetzen können, nicht an einen Blutkreislauf angebunden werden und keine Verhaltensweisen ausbilden können, konnten mit in vivo heranreifende Zellen in Rattenhirnen diese Grenzen überwinden, ausreifen, Vernetzungen bilden und könnten in Zukunft Verhaltensauffälligkeiten z.B. bei psychischen Erkrankungen oder Demenz aufzeigen.

Bereits ältere Versuche an erwachsenen Nagern zeigten, dass die menschlichen Organoide in Ratten überleben können, jedoch war das Trainingsverhalten der Zellen eingeschränkt. In neugeborenen Ratten implantierte menschliche Hirnzellen hatten die Möglichkeit sich weiter zu vernetzen und heranzureifen. Sowohl im MRT als auch in Versuchen zum Lernverhalten der Ratten gab es Hinweise, dass die implantierten Organoide auf Reize reagieren und das Verhalten der Ratten beeinflussen können.

Das Hirnorganoid wurde aus Stammzellen der Großhirnrinde angezüchtet und in den Kortex neugeborener Ratten transplantiert.
Rehvar und andere konnten zeigen, dass Organoide aus kortikalen menschlichen Stammzellen reife Hirnzellen in vivo bei Ratten ausbilden konnten.

Sergiu Pasca:
„Wir platzieren die Organoide durch einen chirurgischen Eingriff direkt in dem Teil des Kortex, der auf die Schnurrhaare der Ratte reagiert. Dann entdeckten wir, dass in den nächsten Monaten Blutgefäße innerhalb des menschlichen Transplantats wachsen und das Transplantat so überlebt. Es kann bis zu 9–10 Mal so groß werden. Und im Wesentlichen erhält man am Ende eine Einheit menschlichen Kortex, die auf einer Seite einer Hemisphäre der Ratte sitzt und etwa ein Drittel der Hemisphäre der Ratte bedeckt.“

In vitro erzeugte Hirn-Organoide dienten Forschern bisher, um Krankheiten zu untersuchen und Therapien zu entwickeln. Diese Untersuchungen waren jedoch begrenzt, in neugeborenen Ratten implantierte Hirn-Organoide entwickeln sich sowohl anatomisch als auch funktionell in den Rattenhirnen.
Die Forscher erhoffen sich hier, mehr über die Gehirnentwicklung und die Entstehung und Behandlung von Menschen mit neurologischen und psychischen Erkrankungen zu lernen.
Die Studie ist auf nature erschienen. https://www.nature.com/articles/s41586-022-05277-w

Ethik

Mensch-Maschine-Verschmelzungen sowie Chimären werfen natürlich auch Fragen zur Ethik auf. Forscher erhoffen sich bei Hirn-Organoiden mehr Effizienz in der Datenverarbeitung und Stromersparnis der KI, doch was ist, wenn die KI bei weiterer Forschung auf diese Weise Bewusstsein entwickeln kann? Wissenschaftler erhoffen sich zwar eine KI mit Bewusstsein, das sei der nächste Schritt bei der KI, doch welche Folgen hätte das?

Ähnlich verhält es sich mit Mensch-Tier-Chimären, was würde passieren, wenn menschliche und tierische Gehirne in Zukunft verschmelzen könnten und sich unkontrolliert beide Denk- und Verhaltensweisen entwickeln würden?

Was darf der Mensch und wo liegen die ethischen Grenzen?

Wie wäre es juristisch einzuordnen, wenn selbst erschaffene Mensch-Maschine-Konstruktionen oder Mensch-Tier-Wesen Schaden anrichten? Wäre der Entwickler verantwortlich oder das erschaffene Wesen, die biotechnische Konstruktion?

Forschung: Künstlicher Daumen für Roboter-KI mit Tastsinn

Künstliche Intelligenz und künstliches Sehen verleihen Robotern einen Tastsinn

Ein künstlicher Daumen mit Tastsinn für Roboter wurde von Wissenschaftlern und Wissenschaftlerinnen des Max-Planck-Instituts in Stuttgart entwickelt. Die flexiblen Sensoren reagieren auf Druck, die so erhaltenen Verformungen des Daumens zeichnet die eingebaute Kamera auf.

Die Hülle des Daumens besteht aus einem formfesten, aber elastischen, verformbaren Kunststoff (Elastomer). Die Kamera kann mit Hilfe der Verformungen ein dreidimensionales Abbild der Kräfte, die auf den Daumen einwirken, abbilden. Durch unterschiedlich starke Kräfte und Winkel des ausgeübten Drucks trainierte das Stuttgarter Team der im Daumen enthaltenen KI so ein tiefes neuronales Netz an.

Wie kann der künstliche Daumen sehen und tasten?

Der Aufbau künstlicher Daumen für Roboter

Der Daumen ist dem menschlichen Daumen nachempfunden, er besteht aus einem steifen Skelett, der Sensor wird aus einem 4 mm dicken Elastomer hergestellt, der rund um das Skelett in Form eines Daumens angebracht wird. Damit der Daumen nicht transparent ist, werden dem Elastomer dunkle Aluminiumflocken beigemischt, die das Licht reflektieren können. Die Lichtmuster werden mit einer Fischaugenkamera aufgezeichnet, die einen Radius von 160° hat. Verschiedenfarbige LEDs im Inneren können so die unterschiedlichen Lichtmuster erzeugen. Anders als beim Menschen ist der Fingernagel die empfindlichste Stelle des Daumens, hier weist der Elastomer nur eine Dicke von 1,2 mm auf. Der Fingernagel kann durch seine höhere Sensibilität selbst kleinste Kräfte und unterschiedlichste Formen erkennen.

Bisherige Sensoren an Robotern waren aufwendig und schwer herzustellen, instabil und wiesen für Feinarbeiten eine zu geringe Sensibilität auf. Für die Arbeit am Menschen oder Tier waren sie deswegen nur bedingt geeignet.

Die Stuttgarter Wissenschaftler und Wissenschaftlerinnen testen den Daumen auch bereits an den ersten Robotern.

Vor- und Nachteile menschenähnlicher Roboter

Roboter und KI im Rahmen der Agenda 2030

Roboter mit Sensoren und KI erleichtern den Menschen bereits heute die Arbeit, so warnen beim Fahren mit modernen Autos die Sensoren vor nahenden Gegenständen oder anderen Autos, um Unfälle zu vermeiden oder Staubsaugerroboter lernen mit Hilfe ihrer Sensoren das Haus oder die Wohnung ihres Besitzers kennen, um sie nach wenigen Trainingsstunden vollkommen abzufahren und zu reinigen.

Sensoren sollen in Zukunft all unsere biometrischen Daten erfassen sowie Bedürfnisse ertasten und damit eine Rundum-Versorgung gewährleisten können, wie es einst im Säuglingsalter die Eltern für ihr Neugeborenes übernahmen. Sie sollen unsere biometrischen Daten erspüren und davon ableiten, was wir für ein Rundum-Wohlfühl-Gefühl oder eine gute Konzentration benötigen und uns diese Bedingungen, wie z.B. die angenehmste Umgebungstemperatur, das Flüssigkeitsbedürfnis pp. steuern und liefern (KI-Ringvorlesung der Johannes-Gutenberg-Universität Mainz). Die Universitäten Ulm und Karlsruhe entwickeln KIs für Schüler und Studenten, die ihnen im Home-Studium den wissenschaftlichen Austausch, das systematische Lernen und das Recherchieren abnehmen sollen.

Apps sollen Ärzte ablösen, Spahn wollte bereits während der Coronakrise eine App einführen, die Notärzte überflüssig machen sollte, indem sie durch bestimmte Fragestellungen entscheidet, ob jemand ein Krankenhausbett erhält oder nicht. Nur durch den Widerstand der Ärzte wurde diese App (noch) nicht eingeführt.

Pflegeroboter sollen in Zukunft im Rahmen der Agenda 2030 Pflegekräfte ersetzen können, hierfür wäre ein druckempfindlicher, sensorischer Daumen notwendig, um durch KI z.B. zu erlernen, wie viel Druck auf eine Wunde oder beim Waschen angewendet werden kann. Aber auch Haushaltsroboter benötigen einen druckempfindlichen Daumen, um z.B. Getränke einzuschenken und zu überreichen.

Im Rahmen der Coronakrise wurden die Menschen bereits auf minimierte soziale Kontakte vorbereitet und ein erhöhtes Interagieren und Kommunizieren mit digitalen Medien. Das diente nicht nur der Entwöhnung von sozialen Kontakten, sondern auch der Datensammlung, die für eine Beschleunigung der Agenda 2030 notwendig ist.

Jens Spahn wollte bereits während der Coronakrise Notärzte durch Apps ersetzen. Die Apps sollten durch einen Fragenkatalog entscheiden, ob jemand ein Krankenhausbett erhält oder nicht. Krankenhäuser wurden geschlossen oder in die Insolvenz getrieben und Pflegekräfte durch Arbeitsverschärfungen und Mehrarbeit aus dem Arbeitsleben vergrault.

Auch wenn im Rahmen der Agenda 2030 ein Großteil der Arbeitsplätze, insbesondere Arbeitsplätze von Akademikern und besser ausgebildeten Arbeitskräften durch KI und Roboter ersetzt werden sollen, ist es insbesondere im Gesundheitsbereich besonders fatal die Arbeitskräfte bereits jetzt auszudünnen, bevor halbwegs funktionierende Apps und Roboter zur Verfügung stehen. Auch kann ein Roboter, selbst wenn er bereits emotional ausgebildet wird und einfache Gefühle schon erkennen kann, keine sozialen Kontakte oder menschliche Zuwendung ersetzen. Aus psychologischer, soziologischer und pädagogischer Sicht ist es kaum sinnvoll, Menschen auf die Retardierungsstufe eines Säuglings zurück zu katapultieren, wenn sie in Zukunft nicht mehr selbst für ihre Bedürfnisse und Lernerfolge sorgen sollen, sondern ein hochsensorischer Roboter, wie es im Rahmen der Agenda 2030 geplant ist.