Neues Hirnimplantat – ALS, Schlaganfall, Lähmung

Neues Hirnimplantat – ALS, Schlaganfall, Lähmung – Über 60.000 Elektroden auf einem hauchdünnen Chip entschlüsseln mit Hilfe von KI Bewegungen, Wahrnehmungen und Absichten von Menschen.

Wissenschaftler der Columbia University School of Engineering and Applied Science entwickelten ein hauchdünnes neues Hirnimplantat (BISC), das eine Hochgeschwindigkeitsverbindung zwischen Hirn und Computer herstellen kann.

Ein hauchdünner Siliziumchip schafft eine Gehirn-Computer-Schnittstelle (BCI). Dieser Chip bildet eine drahtlose Verbindung zwischen Gehirn und externen Computern. Das gesamte System nennt sich Biological Interface System to Cortex (BISC).

Das Apparatur wurde in Zusammenarbeit zwischen der Columbia University, dem New-York-Presbyterian Hospital, der Stanford University und der University of Pennsylvania hergestellt.

Mit einem minimalinvasivem Eingriff, einer kleinen Bohrung durch die Schädeldecke, kann das neue Hirnimplantat in das Gehirn eingebracht werden, wie erste erfolgreiche Versuche zeigten.

Die Wissenschaftler erhoffen sich dadurch bei neurologischen Erkrankungen wie Epilepsie die Anfallskontrolle zu unterstützen und bei Schlaganfall, ALS sowie Rückenmarksverletzungen eine Wiederherstellung von motorischen, visuellen und verbalen Fähigkeiten.

Technik des neuen Hirnimplantates

Die meisten computergesteuerten Implantate nehmen viel Platz im Körper ein, der neue Chip ist aber so hauchdünn, dass er Platz zwischen Schädel und Gehirn im Subduralraum findet und auf dem Hirn unter der Schädeldecke aufliegt.

Nicht-penetrierende Elektroden werden in flexible Substrate eingebettet, um die elektrische Aktivität der Hirnoberfläche aufzuzeichnen.

Die drahtlose Gehirn-Computerschnittstelle besitzt 65.536 Elektroden zum Aufzeichnen mit 1024 auswählbaren Kanälen. Die Stromversorgung erfolgt ebenfalls drahtlos. Die gesamte Technik wird in einem einzigen Metall-Oxid-Halbleiter-Substrat integriert.

Durch die drahtlose Verbindung fehlen die bisher benötigten Verdrahtungen bei Hirnimplantaten, die die Implantate unpraktisch und anfällig für Störungen machten.

Das neue Hirnimplantat kann unter der Dura Mater (der Hirnhaut) implantiert mit einer externen Relaisstation kommunizieren.

Taesung Jung, Nanyu Zeng u.a. konnten zeigen, dass das Gerät bei Schweinen 2 Wochen und bis zu zwei Monate bei nicht-menschlichen Primaten zuverlässige Aufzeichnungen aus dem somatosensorischen, motorischen und visuellen Kortex lieferte und Hirnsignale mit hoher räumlicher und zeitlicher Auflösung dekodierte.

Die präklinische Untersuchungen im motorischen und visuellen Kortex wurden an der Universität Pennsylvania durchgeführt.

Laut Bijan Pesaran bietet das Miniaturmodell auch Möglichkeiten für neue Technologien wie Licht und Ton, sodass sie in Zukunft auch bei Schwerhörigkeit und Blindheit nützlich sein könnten.

Neues Hirnimplantat – Ethik

Gehirn-Computer-Schnittstellen wie das neue Hirnimplantat bieten eine große Chance für Menschen mit neurologischen Erkrankungen und Behinderungen, wie ALS, schwere Epilepsie, Lähmungen, Rückenmarksverletzungen pp.. In Zukunft könnten sie auch bei Schwerhörigkeit und Erblindung Nutzen bringen.

Wie viele große Forschungen stellen sie aber auch eine Gefahr dar, so kündigte die US-Luftwaffe an, ihren Soldaten Gehirn-Computer-Schnittstellen einzubauen, um sich einen Vorteil im Krieg zu verschaffen, wenn die US-Luftwaffe so durch eine rasante Datenauswertung von Wärme-Bild-Kameras, Sensoren, GPS pp. Ziele der Zerstörung und der Tötung schneller und präziser treffen kann.

Andere wiederum erhoffen sich Vorteile in Ausbildung und Beruf, wenn sie mit einer Gehirn-Computer-Schnittstelle schnell auf Daten zugreifen können. Jeder vierte amerikanische Student würde sich laut Umfrage eine Gehirn-Computer-Schnittstelle einbauen lassen.

Hinzu kommen medizinische Risiken, die jede OP hat, sowie psychologische, soziale und emotionale Risiken, wenn Cyborgs in bestimmten Situationen den homo sapiens überlegen sind z.B. durch das schnelle Abrufen von Daten und Informationen, andererseits das eigenständige Recherchieren, Denken und Lernen nicht mehr beherrschen und dem homo sapiens hier weit unterlegen sein werden.

Bereits heute zeigt sich, wie die Digitalisierung zur Servicewüste und zur Beschäftgungstherapie avanciert sowie zum Abbau der Denkleistung, etwa in Pisa-Studien, aber auch, wenn Medien, Führer und Suchmaschinen Scharlatanerie betreiben und erfolgreich erklären mit hohen Steuerausgaben und Verarmung der Bevölkerung könne das Klima verändert werden oder mit Gehorsam, Plünderung von Betrieben und Krankenkassen sowie Wunderheilern können Infektionskrankheiten ausgemerzt werden.

Quellen:

https://www.nature.com/articles/s41928-025-01509-9

Smart Cities – Die überwachte Gesellschaft

Smart Cities – Die überwachte Gesellschaft

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) beauftragte das Fraunhofer Institut für experimentelles Softwareengineering (IESE) und das deutsche Institut für Urbanistik (Difu) eine praxisorientierte Studie zu erstellen, um KI in die Stadtentwicklung einzubetten.

73 deutsche Städte meldeten sich als Modellprojekte für die überwachte Stadt an. Berlin und Heidelberg sogar als C40-Städte, die zusätzlich auf Autoverkehr, Fleisch- und Milchprodukte verzichten wollen, also Städte für gesunde, junge, kinderlose Veganer entwickeln wollen.

Seit 2019 wird das„Modellprojekt Smart Cities“ vom Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen begleitet, die Studie soll das Praxiswissen in die Breite tragen und auch für kleinere und mittlere Kommunen zur Verfügung stellen.

Der Data Act

Smart City – Die überwachte Gesellschaft

2023 verabschiedete das EU-Parlament den Data Act, um die überwachten Städte zu legitimieren und aus den Daten seiner Bürger finanzielle Vorteile zu ziehen, unter dem Motto „Daten sind das neue Öl“.

Verschiedene Modelle der Smart Cities werden unter weiteren Begriffen zusammengefasst als Intelligente Städte, C40 mit strengen „Klimaauflagen“, 15-Minuten-Städte, in denen der Bürger eine Zone von 15 Minuten um seinen Wohnort diesen nicht mehr verlassen muss und soll, oder Smart Cities.

Die Studie

Smart City Modelle in Deutschland

Die Studie lotet Nutzungspotenziale aus und schlüsselt technische und nichttechnische Voraussetzungen einer erfolgreichen Integration von KI in Kommunen auf … KI wird bereits erfolgreich für die Verschränkung der operativen und planerischen Ebene, die Nutzung, Aufbereitung und Verknüpfung sektorübergreifender Daten, das (teil-)automatisierte Infrastruktur-Monitoring, die bedarfsgerechte Steuerung und Verteilung von Ressourcen sowie für bessere Zugangsmöglichkeiten zu kommunalen Diensten und Prozessen für Bürgerinnen und Bürger eingesetzt. Aus technischer Sicht häufen sich dabei vor allem Leistungen der KI im Hinblick auf Mustererkennung (Modelle der Bild- und Videoerkennung), Planung (Vorhersagemodelle) und Interaktion (generative Modelle) …
Die Überwachung und auch die Sanktionierung von etwaigen Verstößen (z. B. Geldbußen) gegen
die vorgenannten Pflichten aus dem AI Act wird für Anbieter von GPAI die Kommission tragen und muss im Übrigen von einer nationalen Behörde übernommen werden, die die Mitglieds-Staaten bis zum 2. August 2025 zu benennen haben. In Deutschland wird dies voraussichtlich die Bundesnetzagentur sein (Stand: Mai 2025).“

Die Studie hat 125 Handlungsfelder der KI für Städte und Regionen untersucht, diese umspannen folgende Bereiche:

  • Energie und Umwelt
  • Infrastruktur
  • Wohnen
  • Wirtschaft
  • Soziales und Integration
  • Gesundheit
  • Bildung und Kultur
  • Stadtentwicklung und Planung
  • Mobilität
  • E-Government
  • Sicherheit

Es wurden unterschiedliche Modell-Projekte untersucht, z.B. untersucht Bamberg den eigenen Baumbestand und dessen Pflegebedarf mit Drohnen, Konstanz verfolgt eine intelligente Steuerung der Stromnetze, um erneuerbare Energien besser zu integrieren und Hamburg wertet anhand von Sprachmodellen Rückmeldungen aus der Bevölkerung aus, erkennt und bündelt so Themen.

eID (ID2020), ePA, Sensoren, Gesichtserkennung, Autoerkennung, biometrische Daten, wie Fingerabdrücke und die Gendatenbank, sozialer Status, Einkaufsverhalten, CO2-Verbrauch, Smart Homes (Heizüberwachung, Kühlschranküberwachung pp.) produzieren eine Unmenge an Daten, die gebündelt und durch KI ausgewertet werden sollen für Forschung, Industrie und Staat.

Die Gefahren

Smart Cities – Die überwachte Gesellschaft

Lindner kündigte 2022 an, dass auf dem Personalausweis der Bürger ihre sämtlichen Daten zusammengeführt werden sollen, auch gegen den Willen der Bürger. Die eID soll den gläsernen Bürger ermöglichen über den gläsernen Patienten (ePA) hinaus.

In der Smart-City-Charta von 2017, die inzwischen nur noch in verkürzter Form zur Verfügung steht, war noch zu lesen, mit den Smart Cities könnten Wahlen abgeschafft werden, da der Staat durch die Totalüberwachung mit Sensoren besser wisse, was der Bürger wolle, als der Bürger selbst.

In Paris müssen bereits mehrere hundert Euro bezahlt werden, sollte ein Auto in die Innenstadt fahren, in GB zerstörten Aktivisten einen Großteil der neu installierten Überwachungskameras wieder. Auch in Deutschland gab es am 09. September 2025 einen Anschlag auf die Stromversorgung in Berlin, der den Firmen galt, die für den militärisch-finanziellen Komplex die Daten der Bürger sammeln, zusammenführen und auswerten sollen. Anarchisten bekannten sich auf der linksradikalen Plattform Indymedia dazu.

In China werden schon längere Zeit verschiedene Modelle der Smart Cities mit Sozialkreditsystem angetestet, das erwünschtes Verhalten von Bürgern belohnt und unerwünschtes abstraft. Dazu gibt es einige arte-Dokumentationen.

Offiziell soll es in der EU kein Sozial-Kredit-System geben, aber auch Deutschland hat bereits mehrere Modellprojekte zum Sozialkreditsystem durchgeführt, so durften in der Corona-Krise nur Menschen, die Staat, Militär, Oligarchen und Industrie gehorchten und sich an den experimentellen Genversuchen beteiligten, am öffentlichen Leben teilnehmen und in manchen Regionen erhalten Asylbewerber eine Bezahlkarte mit digitalem Geld statt Bargeld, das sie nur für bestimmte Produkte und mit einer regionalen Begrenzung ausgeben dürfen. Bargeld zur freien Verfügung erhalten sie lediglich 50 Euro pro Monat. So kann das digitale Geld selbst ohne Smart City zum digitalen Gefängnis werden.

Quelle:

Smart-City-Dialog

Künstliche Intelligenz in smarten Städten und Regionen

Hirn-Organoid mit KI und Chimären

Brainoware aus menschlichem Minihirn mit KI

Hirn-Organoid mit KI: Forscher um Hongwei Cai der Indiana Universität haben ein aus menschlichen Zellen gezüchtetes Hirn-Organoid mit Elektronik verknüpft, sodass ein Hybrid-Computer entstanden ist.

Mensch-Maschine-Verschmelzungen waren lange Zeit Utopien der Transhumanisten und Stoff für Science Fiction.

Doch Mensch-Maschine-Schnittstellen, Cyborgs und Roboter mit Hirn sind mit der Zusammenarbeit von Neurobiologie und Technik auf dem Weg aus den Vorstellungen von Transhumanisten und Science-Fiction-Autoren zur Realität zu werden.

Nature Electronics entwickelte z.B. einen Hirn-Organoiden mit elektronischer Umgebung, der Sprache lernen kann und mathematische Gleichungen lösen.

Selbstlernende Systeme aus reinen KI-Systemen, wie ChatGPT benötigen Millionen Watt, um funktionieren zu können, außerdem können sie bis heute kein Bewusstsein ausbilden und benötigen jahrelanges Training. Selbstlernende Systeme aus KI sind Energiefresser. Schon länger arbeiten Wissenschaftler daran, sie mit lebendigen Geweben zu verbinden. Das menschliche Hirn benötigt im Vergleich nur wenige Watt.

Von der Stammzelle zum Organoid

Hirnorganoid

Ein Organoid ist eine Organstruktur, die in vitro dreidimensionale Gewebestrukturen eines Organs aus Stammzellen entstehen lässt.

Hirnorganoide können für bestimmte Hirnareale mit der entsprechenden Gewebestruktur in Nährlösung entwickelt werden. Sie bestehen aus Nerven- und Gliazellen. Sie werden heute aber nicht größer als eine Erbse, ein komplettes Gehirn kann noch nicht herangezüchtet werden.

Die Hirn-Organoide reagieren ähnlich wie ein menschliches Gehirn auf Reize und senden elektrische Signale aus, sie ändern ihre Reaktionen und bilden Verknüpfungen.

Hirn-Organid mit KI-System

Von der KI zur Brainoware

Forscher um Hongwei Cai der Indiana Universität haben ein aus menschlichen Zellen gezüchtetes Hirn-Organoid mit Elektronik verknüpft, sodass ein Hybrid-Computer entstanden ist.

Sie platzierten ein Hirn-Organoid auf einer Elektrodenplatte, so konnten sie die Hirnströme ableiten und es Reizen aussetzen. Das Netzwerk erhält eine externe elektrische Stimulation und sendet Ausgaben über die neuronale Aktivität des Minihirns, als Basis für eine biologisch-elektrische KI.

Zunächst sollte die „Brainoware“ lernen japanische Silben zu erkennen, dafür wandelte die externe Elektronik die akustischen Signale in elektrische Pulse um und leitete sie an das Hirn-Organoid weiter. Die Reaktion des Minigehirns wurde dann von der Elektronik wieder dekodiert.

Anfangs produzierte das Hirn-Organoid nur Zufallstreffer, während es nach 4 Trainings-Einheiten bereits eine Trefferquote von 78% erreichte, die japanischen Silben zu erkennen.

Auch die Struktur des Hirn-Organoiden veränderte sich, es entwickelte mehr Verknüpfungen als untrainierte Organoide und neue Synapsen .

Künstliche Intelligenz soll so effizienter und leistungsfähiger werden.

Die sogenannte Brainoware lernte durch Training nichtlineare Gleichungen zu lösen und Sprachsilben zu erkennen.

Hongwei Cai u.a. stellten ihre Arbeit im Dezember 2023 in nature vor. https://www.nature.com/articles/s41928-023-01069-w

Erste bioorganische Hybridsysteme waren Roboter mit Nervenzellen.

Mensch-Nager-Chimären

Hirn-Organoide in Ratten

Ein Forscherteam um Omer Rehvar, Felicity Gore, Kevin W. Kelley der Stanford Universität USA, Abteilung Psychiatrie und Verhaltensforschung, untersuchte Chimären aus Ratten, denen ein menschliches Hirn-Organoid eingepflanzt wurde.

Da in vitro erzeugte Hirn-Organoide die Untersuchungsmöglichkeiten begrenzen, weil sie sich in vivo nicht vernetzen können, nicht an einen Blutkreislauf angebunden werden und keine Verhaltensweisen ausbilden können, konnten mit in vivo heranreifende Zellen in Rattenhirnen diese Grenzen überwinden, ausreifen, Vernetzungen bilden und könnten in Zukunft Verhaltensauffälligkeiten z.B. bei psychischen Erkrankungen oder Demenz aufzeigen.

Bereits ältere Versuche an erwachsenen Nagern zeigten, dass die menschlichen Organoide in Ratten überleben können, jedoch war das Trainingsverhalten der Zellen eingeschränkt. In neugeborenen Ratten implantierte menschliche Hirnzellen hatten die Möglichkeit sich weiter zu vernetzen und heranzureifen. Sowohl im MRT als auch in Versuchen zum Lernverhalten der Ratten gab es Hinweise, dass die implantierten Organoide auf Reize reagieren und das Verhalten der Ratten beeinflussen können.

Das Hirnorganoid wurde aus Stammzellen der Großhirnrinde angezüchtet und in den Kortex neugeborener Ratten transplantiert.
Rehvar und andere konnten zeigen, dass Organoide aus kortikalen menschlichen Stammzellen reife Hirnzellen in vivo bei Ratten ausbilden konnten.

Sergiu Pasca:
„Wir platzieren die Organoide durch einen chirurgischen Eingriff direkt in dem Teil des Kortex, der auf die Schnurrhaare der Ratte reagiert. Dann entdeckten wir, dass in den nächsten Monaten Blutgefäße innerhalb des menschlichen Transplantats wachsen und das Transplantat so überlebt. Es kann bis zu 9–10 Mal so groß werden. Und im Wesentlichen erhält man am Ende eine Einheit menschlichen Kortex, die auf einer Seite einer Hemisphäre der Ratte sitzt und etwa ein Drittel der Hemisphäre der Ratte bedeckt.“

In vitro erzeugte Hirn-Organoide dienten Forschern bisher, um Krankheiten zu untersuchen und Therapien zu entwickeln. Diese Untersuchungen waren jedoch begrenzt, in neugeborenen Ratten implantierte Hirn-Organoide entwickeln sich sowohl anatomisch als auch funktionell in den Rattenhirnen.
Die Forscher erhoffen sich hier, mehr über die Gehirnentwicklung und die Entstehung und Behandlung von Menschen mit neurologischen und psychischen Erkrankungen zu lernen.
Die Studie ist auf nature erschienen. https://www.nature.com/articles/s41586-022-05277-w

Ethik

Mensch-Maschine-Verschmelzungen sowie Chimären werfen natürlich auch Fragen zur Ethik auf. Forscher erhoffen sich bei Hirn-Organoiden mehr Effizienz in der Datenverarbeitung und Stromersparnis der KI, doch was ist, wenn die KI bei weiterer Forschung auf diese Weise Bewusstsein entwickeln kann? Wissenschaftler erhoffen sich zwar eine KI mit Bewusstsein, das sei der nächste Schritt bei der KI, doch welche Folgen hätte das?

Ähnlich verhält es sich mit Mensch-Tier-Chimären, was würde passieren, wenn menschliche und tierische Gehirne in Zukunft verschmelzen könnten und sich unkontrolliert beide Denk- und Verhaltensweisen entwickeln würden?

Was darf der Mensch und wo liegen die ethischen Grenzen?

Wie wäre es juristisch einzuordnen, wenn selbst erschaffene Mensch-Maschine-Konstruktionen oder Mensch-Tier-Wesen Schaden anrichten? Wäre der Entwickler verantwortlich oder das erschaffene Wesen, die biotechnische Konstruktion?

KI für das Zell-Tracking und die Massenspektrometrie

Bild

Forschung: Mark Zuckerberg fördert KI zur Bildanalyse für das Zell-Tracking und die Massenspektrometrie

KI für das Zell-Tracking und die Massenspektrometrie: Laut Leibnitz-Institut für Analytische Wissenschaften (ISAS) fördern Mark Zuckerberg und seine Frau Priscilla Chan die Weiterentwicklung der Dortmunder Bildanalyse-Plattform napari zur besseren Analyse mikroskopischer und biochemischer Aufnahmen. Mit jeweils 20.000 Euro werden die Software zur Bildanalyse des Zell-Trackings als auch die der Massenspektrometrie-Analyse gefördert.

Derzeitige Problemstellung beim Zell-Tracking und der Massenspektrometrie-Analyse

Zell-Tracking

Um z.B. die Bewegung von Tumorzellen besser analysieren und besser einordnen zu können, müssen viele mikroskopischen Aufnahmen gemacht werden. Beim Zell-Tracking werden die Zellen erst segmentiert und dann in einen örtlich-zeitlichen Zusammenhang gebracht. So lassen sich die Migration von Zellen oder die Zellteilung besser erkennen.
Eine automatische Zellverfolgung funktioniert derzeit nur begrenzt und Biomediziner müssen zeitaufwendige Nachbesserungen durchführen. Derzeitige Methoden erzeugen große Datenmengen, die von den Forschenden kaum nachzuvollziehen und auszuwerten sind.

Massenspektrometrie

Bei der Massenspektrometrie erkennen Chemiker Substanzen aufgrund ihrer Masse. Das Massenspektrometer misst das Masse-zu-Ladungsverhältnis m/q von Teilchen und kann so die Art und Menge der vorhandenen Teilchen analysieren. Forschende stellen mit Hilfe des Massenspektrometers z.B. fest, welche Stoffwechselprodukte in welcher Menge vorhanden sind. Biochemiker können so metabolische und zelluläre Auflösungen feststellen, die mit Gewebeaufnahmen verglichen werden können.

Napari-Aufrüstung mit KI für Zell-Tracking und Massenspektrometrie

KI Software für Biomediziner

Um die Daten der Wissenschaftler zu optimieren und sie nicht regelmäßig händisch nachbessern zu müssen, will der Leiter der Nachwuchsgruppe AMBIOM Dr. Jianxu Chen mit seinem Team gemeinsam mit Immunologen am ISAS, dem Universitätsklinikum Essen und der Universität Duisburg-Essen kooperieren. Die geförderte Software.“Human-in-the-Cell-Tracking“ soll die drei Module Segmentierung, Tracking und Analyse enthalten. Um die KI zu trainieren, sollen Wissenschaftler direkt händisch in die Automatisierung eingreifen können, um Fehler der Automatik auszubessern und diese Prozesse in Zukunft zu beschleunigen. Menschliches Eingreifen soll nach dem Training der KI weitgehend überflüssig werden. Die Daten sollen weltweit zur Nutzung für andere Biomediziner zum Abgleich und zur Weiterentwicklung zur Verfügung gestellt werden.

Dr. Prasad Phapale, Chemiker und Leiter von Spatial Metabolomics, will mit dem Plug-In „Biochemical Spectrometry Imaging Data“ die Massenspektrometrie-Daten mit anderen Bildformaten fusionieren, sodass Wissenschaftler weltweit die MSI-Bilder mit Metaboliten-Datenbanken abgleichen können sowie mit weiteren Bildern, etwa aus der Mikroskopie.

Gefördert wird die KI für das Zell-Tracking und die Massenspektronomie vom Bundesministerium für Bildung und Forschung sowie von der Chan Zuckerberg Initiative (CZI).

Forschung: Künstlicher Daumen für Roboter-KI mit Tastsinn

Künstliche Intelligenz und künstliches Sehen verleihen Robotern einen Tastsinn

Ein künstlicher Daumen mit Tastsinn für Roboter wurde von Wissenschaftlern und Wissenschaftlerinnen des Max-Planck-Instituts in Stuttgart entwickelt. Die flexiblen Sensoren reagieren auf Druck, die so erhaltenen Verformungen des Daumens zeichnet die eingebaute Kamera auf.

Die Hülle des Daumens besteht aus einem formfesten, aber elastischen, verformbaren Kunststoff (Elastomer). Die Kamera kann mit Hilfe der Verformungen ein dreidimensionales Abbild der Kräfte, die auf den Daumen einwirken, abbilden. Durch unterschiedlich starke Kräfte und Winkel des ausgeübten Drucks trainierte das Stuttgarter Team der im Daumen enthaltenen KI so ein tiefes neuronales Netz an.

Wie kann der künstliche Daumen sehen und tasten?

Der Aufbau künstlicher Daumen für Roboter

Der Daumen ist dem menschlichen Daumen nachempfunden, er besteht aus einem steifen Skelett, der Sensor wird aus einem 4 mm dicken Elastomer hergestellt, der rund um das Skelett in Form eines Daumens angebracht wird. Damit der Daumen nicht transparent ist, werden dem Elastomer dunkle Aluminiumflocken beigemischt, die das Licht reflektieren können. Die Lichtmuster werden mit einer Fischaugenkamera aufgezeichnet, die einen Radius von 160° hat. Verschiedenfarbige LEDs im Inneren können so die unterschiedlichen Lichtmuster erzeugen. Anders als beim Menschen ist der Fingernagel die empfindlichste Stelle des Daumens, hier weist der Elastomer nur eine Dicke von 1,2 mm auf. Der Fingernagel kann durch seine höhere Sensibilität selbst kleinste Kräfte und unterschiedlichste Formen erkennen.

Bisherige Sensoren an Robotern waren aufwendig und schwer herzustellen, instabil und wiesen für Feinarbeiten eine zu geringe Sensibilität auf. Für die Arbeit am Menschen oder Tier waren sie deswegen nur bedingt geeignet.

Die Stuttgarter Wissenschaftler und Wissenschaftlerinnen testen den Daumen auch bereits an den ersten Robotern.

Vor- und Nachteile menschenähnlicher Roboter

Roboter und KI im Rahmen der Agenda 2030

Roboter mit Sensoren und KI erleichtern den Menschen bereits heute die Arbeit, so warnen beim Fahren mit modernen Autos die Sensoren vor nahenden Gegenständen oder anderen Autos, um Unfälle zu vermeiden oder Staubsaugerroboter lernen mit Hilfe ihrer Sensoren das Haus oder die Wohnung ihres Besitzers kennen, um sie nach wenigen Trainingsstunden vollkommen abzufahren und zu reinigen.

Sensoren sollen in Zukunft all unsere biometrischen Daten erfassen sowie Bedürfnisse ertasten und damit eine Rundum-Versorgung gewährleisten können, wie es einst im Säuglingsalter die Eltern für ihr Neugeborenes übernahmen. Sie sollen unsere biometrischen Daten erspüren und davon ableiten, was wir für ein Rundum-Wohlfühl-Gefühl oder eine gute Konzentration benötigen und uns diese Bedingungen, wie z.B. die angenehmste Umgebungstemperatur, das Flüssigkeitsbedürfnis pp. steuern und liefern (KI-Ringvorlesung der Johannes-Gutenberg-Universität Mainz). Die Universitäten Ulm und Karlsruhe entwickeln KIs für Schüler und Studenten, die ihnen im Home-Studium den wissenschaftlichen Austausch, das systematische Lernen und das Recherchieren abnehmen sollen.

Apps sollen Ärzte ablösen, Spahn wollte bereits während der Coronakrise eine App einführen, die Notärzte überflüssig machen sollte, indem sie durch bestimmte Fragestellungen entscheidet, ob jemand ein Krankenhausbett erhält oder nicht. Nur durch den Widerstand der Ärzte wurde diese App (noch) nicht eingeführt.

Pflegeroboter sollen in Zukunft im Rahmen der Agenda 2030 Pflegekräfte ersetzen können, hierfür wäre ein druckempfindlicher, sensorischer Daumen notwendig, um durch KI z.B. zu erlernen, wie viel Druck auf eine Wunde oder beim Waschen angewendet werden kann. Aber auch Haushaltsroboter benötigen einen druckempfindlichen Daumen, um z.B. Getränke einzuschenken und zu überreichen.

Im Rahmen der Coronakrise wurden die Menschen bereits auf minimierte soziale Kontakte vorbereitet und ein erhöhtes Interagieren und Kommunizieren mit digitalen Medien. Das diente nicht nur der Entwöhnung von sozialen Kontakten, sondern auch der Datensammlung, die für eine Beschleunigung der Agenda 2030 notwendig ist.

Jens Spahn wollte bereits während der Coronakrise Notärzte durch Apps ersetzen. Die Apps sollten durch einen Fragenkatalog entscheiden, ob jemand ein Krankenhausbett erhält oder nicht. Krankenhäuser wurden geschlossen oder in die Insolvenz getrieben und Pflegekräfte durch Arbeitsverschärfungen und Mehrarbeit aus dem Arbeitsleben vergrault.

Auch wenn im Rahmen der Agenda 2030 ein Großteil der Arbeitsplätze, insbesondere Arbeitsplätze von Akademikern und besser ausgebildeten Arbeitskräften durch KI und Roboter ersetzt werden sollen, ist es insbesondere im Gesundheitsbereich besonders fatal die Arbeitskräfte bereits jetzt auszudünnen, bevor halbwegs funktionierende Apps und Roboter zur Verfügung stehen. Auch kann ein Roboter, selbst wenn er bereits emotional ausgebildet wird und einfache Gefühle schon erkennen kann, keine sozialen Kontakte oder menschliche Zuwendung ersetzen. Aus psychologischer, soziologischer und pädagogischer Sicht ist es kaum sinnvoll, Menschen auf die Retardierungsstufe eines Säuglings zurück zu katapultieren, wenn sie in Zukunft nicht mehr selbst für ihre Bedürfnisse und Lernerfolge sorgen sollen, sondern ein hochsensorischer Roboter, wie es im Rahmen der Agenda 2030 geplant ist.

Mit KI zur individuellen Krebstherapie

Mit Daten und KI zu Patientengruppierungen und Therapie

Spinne im Netz

Krebs und andere Erkrankungen weisen häufig unterschiedliche Arten sowie Verläufe auf. Ein modulares Analysesystem soll mit Daten und KI Patientengruppierungen vornehmen, um die bestmögliche Behandlung zu finden und z.B. mit KI zur individuellen Krebstherapie zu gelangen. Das neue Unternehmen aimed analytics der Universität Bonn erhält ein EXIST-Gründungsstipendium in Höhe von 130.000 Euro des Bundesministeriums für Wirtschaft und Energie.

Dr. Kevin Baßler, Dr. Patrick Günther und Karsten Waltemathe haben bereits einen Prototypen des modularen Analyseverfahrens entwickelt, den sie mit Hilfe des Stipendiums auf eine nächste Stufe heben wollen.

Von der Zellanalyse zur Patientengruppierung

Patientengruppierungen für schnelle und erfolgreiche Therapien

Krebs und andere Erkrankungen gibt es in unterschiedlichen Ausprägungen, deswegen wirken festgelegte Therapien nicht bei allen Patienten gleich gut. In den Tumorzellen z.B. ließe sich jedoch ablesen, welche Tumorzellen aktiv seien und anhand der Aktivität bestimmen, um welche Variante des Krebses es sich handele. Die Daten der Tumorzellen sollen durch eine Eingruppierung der Krebsart bestimmen, welche Therapie am wirksamsten ist.

Das Konzept der Patientengruppierung ließe komplexe Verfahren mit Hilfe von KI automatisieren und beschleunigen, sodass differenzierte Krankheitseinschätzungen möglich werden.

Unterstützt wird das Vorhaben durch Experten und Expertinnen des Transfer Center enaCom der Universität Bonn bei der Entwicklung eines Businessplanes. Außerdem können die Gründer die Räumlichkeiten des Centers nutzen, um sich mit anderen Start-ups auszutauschen.

Dies geht aus einer Presseerklärung der rheinischen Friedrich-Wilhelms-Universität Bonn hervor.

Chancen für Patienten

Schnellere Diagnostik und Behandlung

Sollte das fertig entwickelte Analyseverfahren von aimed analytics erfolgreich Patienten und unterschiedliche Erkrankungen mit ihren verschiedenen Varianten gruppieren und den richtigen Behandlungsmethoden zuordnen können, böte es Patienten eine Chance, schneller und effektiver behandelt werden zu können, was insbesondere bei schweren Erkrankungen wie Krebs Leid mildernd und lebensrettend sein könnte.

Fraglich bleibt allerdings, ob die Art der Erkrankung alleine entscheidend für den Krankheitsverlauf und die richtige Therapie ist oder ob weitere Faktoren eine Rolle spielen, wie Vorerkrankungen, psychische Verfassung und genetische Veranlagung der Patienten. Nichtsdestotrotz könnte es die medizinische Hilfe beschleunigen, wenn Ärzte sich nicht ausschließlich auf technische Hilfsmittel verlassen, sondern zusätzlich Berufserfahrung und medizinische Kenntnisse in die Diagnostik und Therapie mit einfließen lassen, so wie das auch bei anderen technischen Hilfsmitteln häufig erforderlich ist.

KI-Unterstützung beim Lernen für Studierende

Ulmer Forschende entwickeln digitale Lernsysteme, die sich den Fähigkeiten und Vorkenntnissen der Studierenden anpassen sollen. Unterstützt wird das Forschungsvorhaben „2LIKE“ vom BMBF mit zwei Millionen Euro. Bereits im Wintersemester 2022/23 sollen die KI-basierten Lernsysteme in ausgewählten Studienfächern eingesetzt werden.

Die Coronakrise habe gezeigt, dass Studierende die Unterstützung der betreuenden Professoren, der Seminar- und Übungsleiter sowie die ihrer Kommilitonen benötigen, um erfolgreich ihr Studium abzuschließen. Damit Studierende weiterhin vereinzelt im Home-Studium bleiben können, soll sie in Zukunft eine KI begleiten, die ihnen das notwendige Feedback ihres Lernerfolges gibt sowie auf ihre individuellen Fähigkeiten und Vorkenntnisse eingeht.

Die bereits vorhandene Lernplattform Moodle, die z.B. die Fernuniversität Hagen nutzt, um Berufstätigen ein Studium zu ermöglichen, erlaubt zwar bereits gewisse Anpassungen, individuelle Rückmeldungen kann sie jedoch nicht geben. Mit 2LIKE soll sich das ändern. 2LIKE soll die Defizite der Studierenden aufspüren und individuelle Angebote hierzu machen können. Hierfür sei eine interdisziplinäre Zusammenarbeit notwendig.  Wissensbasierte KI und maschinelles Lernen sollen die Universitäts-Institute  Künstliche Intelligenz und Neuroinformatik einbringen, die digitale Infrastruktur soll das Kommunikations- und Informationszentrum der Universität Ulm liefern. Das psychologische und didaktische Konzept entwirft die Abteilung Lehr- und Lernforschung des Instituts für Psychologie und Pädagogik.

Das gab die Presseabteilung der UUlm am 17.01.2022 bekannt.

Bereits im September 2020 hat die Pädagogische Hochschule Karlsruhe ein Institut für Informatik und digitale Bildung gegründet. Hier wird erforscht wie digitale Lernumgebungen optimal umgesetzt werden können, es werden Lehr-Lern-Konzepte entwickelt mit denen fachwissenschaftliche Inhalte mit praktischem Wissen verknüpft werden sollen. Zur Anwendung sollen die digitalen Lernkonzepte in Schule und Hochschule kommen. (Presseerklörung der Universität Karlsruhe)

Soziale Fähigkeiten, Empathie sowie Eigenständigkeit, wie Selbsteinschätzung und eigene Recherche, gehen Studierenden  so verloren. Auch wäre mit einer solchen KI leicht steuerbar, welche wissenschaftlichen Werke, Studien und Erkenntnisse Studierende lesen und welche nicht. Eigenständiges Denken, Austausch über wissenschaftliche Erkenntnisse sowie ein Diskurs darüber gingen so verloren. All diese Fähigkeiten benötigt eine zukünftige Elite aber, um verantwortungsbewusst und ethisch in Beruf und Forschung tätig zu werden.