Connect with us

Künstliche Intelligenz

Wie Studierende KI an der Uni nutzen – und was Experten davon halten


Es ist 23 Uhr. Die Abgabefrist der Hausarbeit ist am nächsten Morgen. Im schlimmsten Fall bedeutet das eine mühselige Nachtschicht, um noch irgendwie zu bestehen. Für viel mehr ist keine Zeit.

Diese Erfahrungen machen einige Menschen während ihres Studiums. Doch vielleicht bekommen zukünftige Absolvent:innen mehr ruhige Nächte. Denn immer häufiger ist ChatGPT die Antwort auf die Forschungsfrage in der Hausarbeit. Ein nicht repräsentativer Forschungsbericht der Hochschule Darmstadt legt nahe, dass bereits 90 Prozent aller Studierenden in Deutschland KI-Tools für die Uni nutzen.

Einer von ihnen ist Alex (Name geändert). Er greift im Studium öfter auf ChatGPT zurück. Der 23-Jährige studiert Kindheitspädagogik in Hildesheim. „Ich habe mir tatsächlich auch schon unbenotete Arbeiten davon schreiben lassen“, erklärt er. Für ihn ist die generative KI eine Erleichterung. Die Universitäten stehen bei Studierenden wie Alex dagegen vor einer großen Aufgabe. Denn durch die großen Sprachmodelle verändert sich die Art, wie Wissen überprüft wird. Aber wie sollten Hochschulen damit umgehen?

Martin Wan beschäftigt sich mit Fragen wie diesen. Er ist Projektleiter für die Hochschulrektorenkonferenz (HRK) im Hochschulforum Digitalisierung (HFD). Das HFD unterstützt Hochschulen dabei, Fragen zum Einsatz von KI etwa im Studium und der Lehre zu meistern. Während es vereinzelte Stimmen gibt, die nach einem Verbot rufen, hält Wan solche Maßnahmen für falsch. „Die Technologie existiert nun mal. Dadurch ist ein reflektierter Umgang wichtig, der auch an Hochschulen eingeübt werden muss“, sagt er.

Dass es sich dabei um einen langwierigen Prozess handelt, zeigt sich anhand vieler Beispiele. Von einem reflektierten Umgang scheint man nämlich noch weit entfernt zu sein. Im Netz, etwa auf Reddit, berichtet ein Professor über die miserablen Prüfungsleistungen seiner Studierenden. Von zehn korrigierten Bachelorarbeiten seien vier durchgefallen. Alle Student:innen hätten entweder Quellen erfunden oder unpassende Quellen verwendet. Die Vermutung: Die KI hat bei der Literatur halluziniert und Inhalte erfunden. Es ist nicht die einzige Geschichte dieser Art. Das Magazin Rolling Stone berichtete etwa über einen texanischen Professor, der einen Großteil seines Kurses wegen der Verwendung von ChatGPT durchfallen lassen wollte.

In Deutschland gab es bislang nur in einem Fall ein rechtskräftiges Urteil. Die TU München lehnte einen Bewerber ab, der im Motivationsschreiben mutmaßlich KI eingesetzt haben soll. Das Verwaltungsgericht gab der Uni recht und der Bewerber wurde nicht zugelassen. Das Gericht traute den Professor:innen zu, KI-Arbeiten zu erkennen.

„Wenn Studierende die KI nicht kompetent beherrschen, dann kommt ein Bullshit-Bingo heraus“, sagt auch Bernhard Ertl, der an der Universität der Bundeswehr in München zum Lernen und Lehren mit Medien forscht. „Da weiß ich sofort: Diese Textstellen hat noch niemand zuvor gelesen, weil Teile davon einfach hanebüchen sind.“

Bei Maximilians Hausarbeiten wird wohl kein Bullshit-Bingo herauskommen. Der 24-Jährige studiert Data Science im Master an der TU Wien. Statt ChatGPT als Ghostwriter zu verwenden, nimmt er das Tool lieber als Startpunkt für seine Recherche. „Wenn ich am Anfang von einer Hausarbeit einen gewissen Überblick über den Themenbereich bekommen muss, dann eignet sich ChatGPT schon sehr gut“, erklärt er. „Ich kann quasi am Anfang, basierend auf der Forschungsfrage, direkt eine Idee bekommen, wie der aktuelle Stand der Wissenschaft da aussieht.“

Alex geht anders an die Aufgabe. Er recherchiere erst Literatur. „Dann lasse ich ChatGPT den Text so schreiben, dass meine Literatur dafür passt“, sagt er. Entdeckt er bei seiner Recherche Wörter, die er nicht versteht, lasse er sich diese von der KI erklären. Maximilian macht es ähnlich. „So kann ich komplexere Themen runterbrechen, falls ich mal wirklich nichts verstehe“, sagt der Wiener Student. „Oft kann ChatGPT das in eine verständlichere Sprache übersetzen.“

Bernhard Ertl hält den Ansatz für sinnvoll, ChatGPT als ergänzende Hilfe zu verwenden. „Die KI kann ein Werkzeug sein, mit dem die Studierenden zu besseren Ergebnissen kommen, wenn sie sich entsprechend in dieses Werkzeug reinarbeiten“, sagt er. Doch das ist nicht immer der Fall. „Dann wird es schlechter, weil sie einfach nur Prompts machen und was generiert wird, in die Arbeit einfügen, und das nicht verstehen“, ergänzt er.

Alex glaubt, dass es für die Dozierenden kaum erkennbar sei, ob er oder die KI die Hausarbeit geschrieben hat. „Ich muss auch sagen, ich hatte immer Angst, wenn meine Arbeiten durch Plagiatsprüfer überprüft werden. Aber auch da muss ich sagen: Es hat bis jetzt jedes Mal funktioniert“, erzählt er.

Plagiatsprüfer überprüfen, ob die Autor:innen ihren Text abgeschrieben haben. Dabei vergleichen sie die Arbeit mit einer Datenbank aus wissenschaftlichen Texten. Am Ende kommt dabei eine Prozentzahl raus, die bestimmt, wie viel der eingereichte Text denen aus der Datenbank ähnelt. Oft braucht es allerdings eine genaue Überprüfung, um herauszufinden, ob es sich um Ähnlichkeiten oder um wirkliche Plagiate handelt.

Wer beim Abschreiben erwischt wird, fällt durch. Das gilt auch, wenn die KI zufällig dieselben Wörter verwendet. Mittlerweile gibt es auch KI-Detektoren. Die sollen erkennen, ob Studierende bei ihrer Arbeit Texte mit einem KI-Chatbot geschrieben haben. Eine Studie der British University Vietnam und der James Cook University in Singapur zeigt: Oft sind diese Tools sehr ungenau. Einrichtungen wie die Uni Hannover verwenden deswegen Tools dieser Art nicht. In einer Stellungnahme der Universität zur Verwendung von KI-Detektoren heißt es, dass „die Ressourcen der Hochschulen besser in die Anpassung der Prüfungskultur und -formate gesteckt werden sollten“.

Wer das als Freifahrtschein für die KI-Nutzung sieht, sollte trotzdem auf die KI-Richtlinien der jeweiligen Universität achten. So muss man etwa an der Universität zu Köln kenntlich machen, ob und wie KI bei einer Hausarbeit verwendet wurde. Das bereits erwähnte Gerichtsurteil aus München greift die Universität auch auf. „Bei Täuschungshandlungen kann dabei der sogenannte Anscheinsbeweis geführt werden“, heißt es auf der Webseite. Sollten Prüfer:innen mögliche Anzeichen wie erfundene Quellen für eine unrechtmäßige KI-Nutzung feststellen, zählt das in Köln als Täuschung.

Eine Studie aus dem „International Journal of Educational Technology in Higher Education“ zeigt auch andere Beweggründe auf, ChatGPT in der Uni zu nutzen. Dabei decken die Forscher:innen auf, dass Studierende, die unter großem Druck stehen und einen hohen Workload haben, eher auf ChatGPT zurückgreifen. Besonders vorsichtige Studierende schrecken eher vor der Verwendung zurück – aus Angst vor Konsequenzen.

Wenn Studierende wie Alex Hausarbeiten mit ChatGPT schreiben, ist das für Wan ein Warnsignal. „Ist die Art und Weise, wie wir prüfen, sinnvoll? Fördern wir damit Kompetenzen?“, fragt er. Die Studie zeigt nämlich auch: Wer ChatGPT während des Studiums exzessiv nutzt, erzielt schlechtere Ergebnisse. Trotzdem oder vielleicht sogar deswegen sieht Wan in der KI eine Chance, eine moderne Prüfungskultur zu schaffen, die nicht stumpf Wissen abfragt und stattdessen die Anwendung in den Fokus stellt.

Einen offenen Umgang mit dem Thema gibt es laut Alex an seiner Hochschule nicht. „Ich habe da jetzt noch nicht wirklich viel mitbekommen“, erzählt er. Auf der Webseite der Universität finden sich hingegen viele Infos. Sogar einen kostenlosen Zugang zu ChatGPT 4o samt Handlungsempfehlungen für Studierende gibt es. Lehrende sind etwa angewiesen, Prüfungsaufgaben so zu stellen, dass eine KI nicht ausreicht, um sie zu beantworten.

Wan und Ertl sind sich einig: Es braucht die passenden Strukturen für KI. Dafür hat die Hochschulrektorenkonferenz auf über 40 Seiten sieben Handlungsempfehlungen verfasst. Darunter fällt zum Beispiel, dass es ein größeres Verständnis über das Thema benötigt oder Hochschulen Räume für einen interdisziplinären Austausch fördern sollten. „Vor allem empfehlen wir auch nochmal ganz klassische Kompetenzen wie Quellen- und Ideologiekritik einzuüben“, so Wan.

Studierende sollten sich bewusst sein, dass KI-Tools halluzinieren und nicht belegbare Dinge als Fakten darstellen können. „Und das geht bis zu einer Ideologiekritik der Anbieter“, führt Wan fort. Beim Verwenden von Deepseek sollte man im Hinterkopf haben, dass das Tool eher Antworten liefert, die der ideologischen Linie der chinesischen Regierung entsprechen.

Bernhard Ertl arbeitet gerade an einem Projekt, bei dem interkulturelle Trainings mit einem KI-Avatar erleichtert werden sollen. „Das funktioniert ganz gut, wenn es etwa ein Englisch-Training ist, damit die Leute Übung bekommen, in der Sprache zu reden“, erklärt der Professor. Avatare dieser Art sollen aber auch als Lernpartner funktionieren, „der die Leute beim Lernen unterstützt, Fragen beantwortet oder Sachen zusammenfasst.“

Für Studierende wäre das wohl ein Segen. Zumindest erzählen sowohl Alex als auch Maximilian, dass Künstliche Intelligenz ihren Uni-Alltag enorm erleichtert – entweder als Recherche-Hilfe, als Erklär-Tool, aber auch als Ghostwriter. Wer KI falsch in der Uni einsetzt, lernt nicht nur weniger, sondern läuft auch Gefahr, eine schlechte Prüfungsleistung abzugeben. Das Studium wird durch die Sprachmodelle also nicht komplett abgeschafft.

Hochschulen stehen nun vor der Aufgabe, KI so in die Studiengänge zu integrieren, dass Studierende bewusst damit umgehen können. Dafür müssen sie auch überarbeiten, wie sie gelerntes Wissen prüfen, damit nicht mal eben ganze Hausarbeiten gepromptet werden können. Ertl geht davon aus, dass KI den Status von Computern oder Internet-Tools einnehmen wird, die Studierende durch ihren Alltag begleiten. „Das ist ähnlich wie mit einem Hammer“, sagt er. „Ich muss den Hammer so bedienen, dass ich mir nicht auf die Finger haue und dann der Nagel so in der Wand ist, damit das Bild hängen bleibt.“

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Künstliche Intelligenz

KI-Branche fürchtet größte jemals zugelassene US-Sammelklage zum Copyright


KI-Branchenverbände fordern das US-Berufungsgericht für das Nördliche Kalifornien auf, eine Sammelklage wegen Copyright-Verletzungen gegen das KI-Unternehmen Anthropic zu blockieren. Sie monieren, dass dieses juristische Verfahren, dem sich potenziell bis zu sieben Millionen Kläger anschließen könnten, die gesamte US-amerikanische Industrie für Künstliche Intelligenz finanziell ruinieren und die technologische Wettbewerbsfähigkeit der USA gefährden könnte.

Die ursprüngliche Klage reichten die drei Buchautoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson voriges Jahr ein. Sie behaupten, Anthropic habe ihre geschützten Werke zum Training seiner KI-Modelle wie Claude verwendet. Nachdem ein Bundesbezirksgericht die Eingabe als Sammelklage im Juni zumindest teilweise zuließ, legte Anthropic vor Kurzem Berufung ein. Das Unternehmen argumentiert, der federführende, schon seit rund 50 Jahren im Silicon Valley Recht sprechende Richter William Alsup, habe bei seiner Entscheidung keine gründliche Analyse durchgeführt und die potenziellen Risiken des Falls unterschätzt.

Sollte die Sammelklage zugelassen werden, befürchtet Anthropic Forderungen in Höhe von Hunderten Milliarden US-Dollar an Schadensersatz binnen weniger Monate. Angesichts dieses existenziellen Risikos könnte das Unternehmen gezwungen sein, sich auf einen Vergleich einzulassen, argumentiert es. Dabei habe die Firma prinzipiell das Recht, die Vorwürfe zu bestreiten. Der Claude-Betreiber warnt: Eine kostspielige außergerichtliche Einigung würde einen beunruhigenden Präzedenzfall für die ganze Branche der generativen KI schaffen.

IT-Verbände wie die Consumer Technology Association (CTA) und die Computer and Communications Industry Association (CCIA) unterstützen Anthropic in einer am Donnerstag eingereichten Stellungnahme an das Gericht. Auch sie zeigen sich alarmiert, dass „die fehlerhafte Sammelklage“ des Bezirksgerichts immensen Schaden „nicht nur für ein einzelnes KI-Unternehmen“ schaffen würde. Generell gälten Copyright-Auseinandersetzungen als ungeeignet für Sammelklagen, da jeder einzelne Autor das Eigentum an seinen Werken nachweisen müsse.

Sogar Autorenvertretungen und Bürgerrechtsorganisationen wie die Authors Alliance, die American Library Association, die Association of Research Libraries, die Electronic Frontier Foundation (EFF) und Public Knowledge unterstützen die Berufung von Anthropic. Sie weisen darauf hin, der Fall Google Books habe gezeigt, dass der Nachweis des Eigentums an Nutzungs- und Verwertungsrechten alles andere als einfach sei.

Die Fürsprecher der Kreativwirtschaft kritisieren, dass Richter Alsup die Identifizierung von bis zu sieben Millionen Rechteinhabern als zu einfach angesehen habe. In Wahrheit sei es extrem kompliziert, die Eigentumsverhältnisse bei so vielen Werken zu klären, da Verlage nicht mehr existieren könnten, Rechte an einzelne Personen vererbt worden seien oder es sich potenziell um „verwaiste Werke“ ohne klare Rechteinhaber handele.

Laut der entsprechenden Eingabe gibt es „keinen realistischen Weg“, diese Probleme auf kollektive Weise zu lösen. Ein unzulängliches Benachrichtigungssystem für potenzielle Kläger und die immense Komplexität der Rechteklärung würden das Verfahren unkontrollierbar machen. Die Organisationen warnen, dass eine Fortführung der Klage die Unsicherheit über KI-Training mit urheberrechtlich geschütztem Material nur weiter verstärken würde. Zudem könnten einige Autoren nie erfahren, dass die Klage überhaupt geführt wird. Dies würde verhindern, dass sie den ihnen zustehenden Schadenersatz geltend machen. Es wäre daher besser, das Verfahren zu stoppen.

Laut dem Urteil der ersten Instanz ist die Nutzung von Buchkopien zum KI-Training zulässig, der Download elektronischer Bücher von „Piratenseiten“ aber illegal. Bevor Anthropic mit dem Scannen legal gekaufter Druckausgaben begann, lud die Firma mehr als sieben Millionen E-Books aus dem Internet, ohne sich um Lizenzen zu kümmern. In den USA sind Dutzende weitere Klagen mit dem Vorwurf von Copyright-Verstößen durch KI-Betreiber anhängig.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Palantir wehrt sich: Datenabfluss „technisch ausgeschlossen“


Nach jahrelanger Kritik wehrt sich die US-Firma Palantir gegen Vorwürfe mangelnder Datensicherheit beim umstrittenen Einsatz ihrer Datenanalyse-Software bei deutschen Polizeien. „Eine Übertragung oder ein Abfluss von Daten – etwa in die USA – ist technisch ausgeschlossen“, sagte ein Unternehmenssprecher der Deutschen Presse-Agentur. In Bayern, Nordrhein-Westfalen und Hessen, wo die Polizei Palantir-Programme nutzt, werde die Software „ausschließlich“ auf Servern der Polizei betrieben.

„Es besteht keinerlei Verbindung zum Internet oder zu externen Servern, sodass Daten nicht aus dem polizeilichen Hoheitsbereich gelangen können“, betonte der Palantir-Sprecher. „Die vollständige Datenhoheit liegt bei der Polizei.“ Dort liege auch die Entscheidungsgewalt darüber, wer auf das Programm zugreifen kann.

Mit der Software namens Gotham, die in den Ländern als angepasste Version unter den Namen Hessendata, DAR und VeRA läuft, kann die Polizei große Mengen an Daten auswerten und Verbindungen herstellen. Eingesetzt werden darf das Programm dort bisher nur, um Straftaten zu verhindern – nicht aber, wenn es nur um Aufklärung im Nachhinein geht. Dafür waren Änderungen in den jeweiligen Landesgesetzen nötig. Das Bundesverfassungsgericht zog zudem in einem Urteil 2023 Leitplanken für die Regeln zum Einsatz ein.

Das Programm kann zwar ohnehin nur auf Daten zugreifen, die die Polizei schon gesammelt hat. Die sind bei der Polizei oft in unterschiedlichen Formaten und Datentöpfen gespeichert, was die Suche nach Verbindungen für die Beamten deutlich verlangsamt.

Zu den analysierbaren Daten gehören aber auch Informationen über Menschen, die nicht als Verdächtige geführt werden, sondern zum Beispiel als Zeugen. Allein in Bayern geht es dabei um Millionen Daten. Datenschützer sehen darin ein Problem, weil die Daten ursprünglich zu ganz anderen Zwecken erhoben worden sein können.

Datenschützer hatten in der Vergangenheit immer wieder die Sorge geäußert, Palantir könne über das Programm unbemerkt Polizeidaten zum Beispiel an US-Geheimdienste fließen lassen. Auch an den politischen Präferenzen von Unternehmensgründer Peter Thiel, der in der Vergangenheit US-Präsident Donald Trump im Wahlkampf unterstützt hatte, entzündete sich Kritik.

Thiel sei zwar immer noch Verwaltungsratschef von Palantir, hieß es vom Unternehmen. „In das operative Tagesgeschäft ist er allerdings nicht involviert.“ CEO ist bei Palantir Mitgründer Alex Karp, der in der Vergangenheit Ex-US-Präsident Joe Biden finanziell im Wahlkampf unterstützt hatte.

Die Diskussion über den Einsatz von Gotham in Deutschland bezeichnete der Palantir-Sprecher als „vergleichsweise emotional und oft auf Basis unvollständiger oder falscher Annahmen“. Man sei auch „über die Vielzahl an sogenannten ‚Experten‘ verwundert, die unsere Software scharf kritisieren, ohne sie je gesehen oder sich eingehend mit ihrer Funktionsweise beschäftigt zu haben“. In der Vergangenheit hatte Palantir auf dpa-Anfragen zu seiner Software selten reagiert.

Das Unternehmen habe Kritikern aber Gesprächsangebote unterbreitet, die teils jedoch nicht angenommen worden seien, sagte ein Sprecher. Palantirs Türen stünden „nichtsdestotrotz weiterhin offen für alle Interessierten, sich selbst ein Bild von unserer Arbeit zu machen“.

Palantir könne Sicherheitsbehörden helfen, auf aktuelle Bedrohungen wie Cyberkriminalität, organisierte Kriminalität oder Terrorismus schnell und effektiv zu reagieren, sagte der Sprecher. „Wenn Bedrohungen aber nicht rechtzeitig erkannt und abgewehrt werden, obwohl dazu die Möglichkeiten bestünden durch den Einsatz von sicher anzuwendender modernster Technologie – käme das dann nicht einer unterlassenen Hilfestellung gleich?“

Bundesinnenminister Alexander Dobrindt (CSU) will den Einsatz von Palantir-Software dennoch prüfen, Bundesjustizministerin Stefanie Hubig (SPD) ließ zuletzt Zurückhaltung erkennen. Jüngst hatte sich die grün-schwarze Koalition in Baden-Württemberg nach internem Streit auf einen Einsatz der Software im Südwesten geeinigt. Andere Länder lehnen den Einsatz des Programms ab.

Dobrindts Ministerium betonte zwar, man werde auch mögliche Alternativen zu Palantir prüfen. Das Unternehmen selbst macht aber keinen Hehl daraus, dass sich Palantir auf seinem Feld für weitgehend konkurrenzlos hält: „Sollte man tatsächlich die Hoffnung auf Lösungen setzen, die bereits vor der ersten Zeile funktionierendem Code an Debakel wie den BER oder Stuttgart 21 erinnern, statt auf einen Anbieter zu vertrauen, der nach Aussagen zahlreicher Experten alternativlos ist und den Status „Bekannt und Bewährt“ innehat?“


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Bloomwell-Gründer: Cannabis-Pläne sind „Rückschritt in die analoge Steinzeit“


Die Debatte um strengere Regeln für den Handel mit medizinischem Cannabis sorgt für Unruhe bei Anbietern und Patienten. Damit sollen Verschreibung und Abgabe von medizinischem Cannabis deutlich strenger geregelt werden – dabei hatte der ehemalige Gesundheitsminister Karl Lauterbach die Gesetzesänderung erst kürzlich auf den Weg gebracht.

Dadurch, dass die Änderungen wieder rückgängig gemacht werden sollen, wächst die Sorge vor massiven Einschnitten bei der Versorgung – insbesondere durch mögliche Beschränkungen der Telemedizin und des Apothekenversands bei Plattformbetreibern und Patienten. Das geht aus dem von der Plattform Bloomwell veröffentlichten Cannabis-Barometer hervor, für das rund 2500 Patienten befragt wurden.


Julian Wichmann

Julian Wichmann

Dr. Julian Wichmann

(Bild: Bloomwell)

Der Geschäftsführer der Bloomwell GmbH, Dr. med. Julian Wichmann, warnt vor einem gesundheitspolitischen Rückschritt. Im Interview erklärt er, warum die geplanten Änderungen aus seiner Sicht nicht nur medizinisch unsinnig sind, sondern auch den Weg zu einer wirksamen Therapie abschneiden könnten. Das Unternehmen will auch mittels datenbasierten Forschungsaktivitäten zur Entstigmatisierung von Cannabis in der Medizin beitragen.

Warum ärgern Sie sich über den Referentenentwurf (PDF) zum medizinischen Cannabis?

„Ärgern“ ist vielleicht das falsche Wort – wir sind eher besorgt. Denn der aktuelle Vorschlag stellt in unseren Augen tatsächlich einen großen Rückschritt dar, und zwar in die analoge Steinzeit. Vor allem geschieht das nicht im Sinne der Patienten – der vorliegende Entwurf trägt weder zu ihrer Sicherheit bei, noch gewährleistet er eine zuverlässige Arzneimittelversorgung. Im Gegenteil torpediert er diese Ziele.

Was genau bereitet Ihnen Sorgen?

Wir bekommen bereits vermehrt Anfragen von Patienten, die sich fragen, ob sie in Zukunft überhaupt noch eine Cannabisbehandlung in Deutschland erhalten können. Viele haben durch diese Therapieform entscheidend an Lebensqualität gewonnen – und das steht jetzt auf dem Spiel. Der Entwurf ist aus unserer Sicht übertrieben und basiert auf unbelegten Behauptungen. Es wird etwa von Missbrauch und Gesundheitsgefahren wie Sucht gesprochen – doch für medizinisches Cannabis gibt es dafür keinerlei wissenschaftliche Grundlage.

Die angeführten Zahlen sind eher wirtschaftlicher Natur – etwa, dass Cannabisimporte stärker zugenommen haben als Verschreibungen bei Kassenärzten. Der Rückschluss, dass es deshalb Missbrauch geben müsse, ist nicht nachvollziehbar. In der Realität ist es so, dass in der kassenärztlichen Versorgung medizinisches Cannabis nur eine sehr kleine Rolle spielt. Der Großteil der Patienten befindet sich im Selbstzahlerbereich.

Auch erste Ergebnisse der vom Bund selbst in Auftrag gegebenen Evaluationen zeigen nichts dergleichen. Es gibt keine Hinweise auf Suchtproblematiken, keine auffälligen Zahlen im Straßenverkehr oder in Suchtkliniken. Im Gegenteil: Die Erfahrungen sind überwiegend positiv.

Gibt es wissenschaftliche Erkenntnisse, die den Nutzen von medizinischem Cannabis belegen?

Ja, zum Beispiel aus den USA. Dort zeigen Studien, dass mit der Zugänglichkeit von medizinischem Cannabis der Einsatz von Opioiden und Schlafmitteln deutlich zurückgeht – teils um 70 bis 80 Prozent. Und das sind Medikamente, bei denen ein Missbrauch in Deutschland längst belegt ist. Geschätzte zwei Millionen Menschen sind allein abhängig von Schlafmitteln. Cannabis hingegen wird verteufelt, obwohl es dafür keine Belege gibt. Basierend auf unseren Real-World-Daten haben auch Wissenschaftler von zwei angesehenen deutschen Universitäten zur Wirkung von medizinischem Cannabis geforscht und die vielversprechenden Ergebnisse in Fachzeitschriften publiziert. Die Evidenzlage hat sich in den letzten Jahren extrem verbessert. Gerade die ausbleibenden oder nur leichten Nebenwirkungen sind oft Anlass für einen Therapieversuch.

Was halten Sie dem Referentenentwurf konkret entgegen?

Ursprünglich war geplant, die Evaluationen abzuwarten und auf deren Basis Entscheidungen zu treffen. Jetzt wird ein Schritt vorgezogen, ohne dass Zahlen vorliegen. Das ist gesundheitspolitisch nicht nachvollziehbar. Es wird medizinisches Cannabis mit illegalem Straßen-Cannabis gleichgesetzt – obwohl es sich um zwei völlig verschiedene Produkte handelt. In der medizinischen Versorgung haben wir pharmazeutisch reine Produkte, eine kontrollierte Abgabe, Altersverifikation, ärztliche Ansprechpartner – im Schwarzmarkt nichts davon.

Kritiker führen auch Missbrauchspotenziale im Online-Medikamentenhandel an. So ist es möglich, über Telemedizin-Anbieter Medikamente unter Angabe falscher Daten zu erhalten. Versendet werden diese dann von niederländischen Versandapotheken mit Briefkastenadressen.

Theoretisch gibt es in jeder Form der Medikamentenvergabe ein Missbrauchsrisiko – auch bei niedergelassenen Ärzten. Wichtig ist deshalb, dass Anbieter verantwortungsvoll arbeiten. Wir zum Beispiel arbeiten nur mit deutschen Apotheken, haben digitale Identitätsprüfungen mit Ausweis und bieten regelmäßige Videosprechstunden und auch vor Ort Sprechstunden an. Missbrauchsfälle wie der von Ihnen geschilderte – mit gefälschten Angaben bei niederländischen Anbietern – sind bei uns ausgeschlossen.

Welche Konsequenzen hätte der Referentenentwurf Ihrer Ansicht nach?

Der Entwurf würde nicht nur den Zugang für Ärzte und Patienten massiv einschränken, sondern sogar Apotheken verbieten, Cannabis zu verschicken. Dabei hat sich gerade dieses Modell bewährt. Cannabis ist ein Naturprodukt, das besondere Handhabung und Erfahrung sowie kurze Lagerzeiten erfordert – dafür braucht es spezialisierte Apotheken. Der Versand ist essenziell, um eine flächendeckende, qualitativ hochwertige Versorgung sicherzustellen. Eine Analyse unsererseits hat gezeigt, dass bei der Hälfte der Cannabis-Patientinnen die nächste auf Cannabis spezialisierte Apotheke weiter als zehn Kilometer entfernt ist. In einigen ländlichen Regionen dürften es über hundert Kilometer sein. So etwas kann man Patienten, teils schwer erkrankt, mit eingeschränkter Mobilität, nicht zumuten.

Welche Rolle spielt dabei die Digitalisierung?

Medizinisches Cannabis ist ein Paradebeispiel für digitale Versorgung. Patientengespräche finden oft per Videosprechstunde statt. Patienten und Ärzte haben online komplette Transparenz über Preise und Verfügbarkeit. Sogar psychotherapeutische Behandlungen werden mittlerweile vollständig online durchgeführt – warum soll das bei Cannabis plötzlich nicht gelten? Zudem findet man kaum Hausärzte, die mit Cannabis arbeiten. Der Entwurf würde Patienten in eine Odyssee zwingen – oder in den Schwarzmarkt treiben.

Gibt es dazu Zahlen?

Ja. In einer Umfrage mit etwa 2.500 Teilnehmern würden über 40 Prozent bei Beschränkung der legalen telemedizinischen Versorgung auf illegales Cannabis zurückgreifen. Aber auch die übrigen 60 Prozent hätten keinen telemedizinischen Zugang wie in der bisherigen Form. Das heißt also im Gegenzug, dass der Großteil der Patienten ohne Behandlung wäre – mit allen gesundheitlichen und gesellschaftlichen Folgen für beide Gruppen.

Wird medizinisches Cannabis denn von den Krankenkassen übernommen?

In unserem Modell nicht, weil es bislang kein Interesse seitens der Krankenkassen gab, hier Verträge zu schließen. Ich persönlich habe unzählige Gespräche geführt. Dabei wäre das technisch längst möglich. Es fehlt schlicht der Wille. Die kassenärztliche Versorgung existiert, wie man an den auch vom BMG zitierten Zahlen sieht, spielt sie jedoch eine untergeordnete Rolle.

Arbeiten Sie mit Versandapotheken im Ausland zusammen?

Nein, das ist bei Cannabis gar nicht erlaubt. Es darf nur innerhalb Deutschlands verschickt werden, weshalb wir ausschließlich mit spezialisierten deutschen Apotheken kooperieren. Diese haben über Jahre Know-how und viele Arbeitsplätze aufgebaut.

Konsumieren Sie selbst medizinisches oder anderes Cannabis?

Nein, ich bin weder Patient noch Konsument. Zum Glück habe ich keine chronischen Erkrankungen. Aber ich habe mit vielen Patienten gesprochen, die dank Cannabis ein neues Leben führen können – etwa Menschen mit ADHS, die von Ritalin wegkommen. Das ist beeindruckend.


(mack)



Source link

Weiterlesen

Beliebt