Die aktuelle KI-Revolution wird stark von großen Sprachmodellen vorangetrieben. Mit HIDAs Lecture Series on AI and LLMs erhalten Sie Einblick in verschiedene Facetten des Themas.
Nicht erst seit dem Einsatz von ChatGPT ist die Nutzung, Entwicklung und Implementierung von KI und großen Sprachmodellen von höchstem Interesse für die wissenschaftliche Gemeinschaft.
Aus diesem Grund organisiert die Helmholtz Information & Data Science Academy (HIDA) eine Vorlesungsreihe mit monatlichen Lectures zu diesen Themenbereichen.
Das Themenspektrum der Vorträge ist breit gefächert: Es reicht vom technischen Basiswissen über die Systeme über die Auswirkungen auf den Wissenschaftsbetrieb bis hin zu ethischen Fragen, die sich aus dem Einsatz von KI und LLMs ergeben können.
Alle Referenten sind hochqualifizierte Forschende aus der Helmholtz-Gemeinschaft und ihren Partnern.
Kommende Termine
The Ethics of AI: Foundations of Applied Ethics and Emerging Risks from AI Development, 23.01.2024
Machine Learning for Precision Medicine: Avenues and Roadblocks, 18.02.2025
Large-Scale Brain Decoding - Taking Advantage of Physiological Diversity, 10.03.2025
Noch einmal ansehen: Vergangene Lectures on AI and LLMs
Der Referent: Simon Ostermann
Der Referent: Simon Ostermann
Simon Ostermann ist Computerlinguist und leitender Forscher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Sein Forschungsinteresse gilt der Verbesserung der Nutzbarkeit von Large Language Models (LLMs) in mehrfacher Hinsicht. Erstens, indem die Parameter und das Verhalten von LLMs sowohl für Endnutzer als auch für Forscher erklärbarer und verständlicher gemacht werden, und zweitens, indem Sprachmodelle in Bezug auf ihren Datenverbrauch und ihre Größe verbessert werden.
A Short Introduction to Efficient Natural Language Processing
Inhaltszusammenfassung:
Der Vortrag beleuchtet die Herausforderungen bei der Entwicklung effizienter Modelle unter begrenzten Daten- und Ressourcenbedingungen. Er thematisiert Strategien zur Maximierung von Daten- und Modelleffizienz, insbesondere bei großen, rechenintensiven Modellen, die oft auf englischen Daten basieren.
Diskutiert werden Techniken wie Vorfilterung, Online-Methoden, Datenanreicherung, Curriculum-Lernen sowie parametereffiziente Ansätze wie Adapter, Prompt-Tuning und Präfix-Tuning, um die Leistung ohne umfangreiche Datenanforderungen zu steigern.
Der Referent: Fredrik Heintz
Der Referent: Fredrik Heintz
Fredrik Heintz ist Professor für Informatik an der Universität Linköping, wo er die Abteilungen für Künstliche Intelligenz und Integrierte Computersysteme (AIICS) sowie das Reasoning and Learning Lab (ReaL) leitet. Sein Forschungsschwerpunkt liegt auf Künstlicher Intelligenz, insbesondere auf vertrauenswürdiger KI und der Schnittstelle zwischen maschinellem Denken und maschinellem Lernen.
TrustLLM - Towards Trustworthy and Factual Language Models
Inhaltszusammenfassung
In diesem Vortrag wird das EU-Projekt "TrustLLM" präsentiert, dessen zentrales Ziel die Entwicklung offener, verlässlicher und neutraler Large Language Models (LLMs) ist. Der Fokus liegt dabei zunächst auf den germanischen Sprachen. Dies schafft die Basis für eine fortschrittliche, offene Plattform, die modulare und erweiterbare europäische LLMs der nächsten Generation unterstützt.
Die Referentin: Isra Mekki
Die Refrentin: Isra Mekki
Isra Mekki ist Machine Learning Engineer bei Helmholtz AI und hat sich auf Machine Learning und Softwareentwicklung spezialisiert. Isra Mekki hat an der ESI in Algier Informatik studiert. Anschließend hat sie an der PSL Research University in Paris einen Master in Data Science und maschinellem Lernen erworben. Bevor sie zu Helmholtz AI kam, sammelte sie Erfahrungen in der automatischen Spracherkennung bei einem Start-up und später als Dateningenieurin bei Orange France.
ChatGPT in Action: Enhancing Your Workflow
Inhaltszusammenfassung
Viele Nutzer verwenden ChatGPT, ohne die Möglichkeiten vollständig auszuschöpfen. Diese Lecture soll aufzeigen, wie man durch gezieltes Prompt Engineering das volle Potenzial von Anwendungen wie ChatGPT, die auf Large Language Models (LLMs) basieren, nutzen kann.
Das Event richtet sich sowohl an Einsteiger, die noch keine Erfahrungen mit ChatGPT haben, als auch an diejenigen, die sich über bewährte Strategien, mögliche Herausforderungen und Grenzen dieser Technologie informieren möchten.
Die Referentin: Lea Schönherr
Die Referentin: Lea Schönherr
Lea Schönherr ist Tenure-Track-Faculty am CISPA Helmholtz-Zentrum für Informationssicherheit. Sie forscht zu Informationssicherheit mit einem Schwerpunkt auf Adversarial Machine Learning. Sie promovierte 2021 an der Ruhr-Universität Bochum, wo sie von Professor Dr.-Ing. Dorothea Kolossa in der Arbeitsgruppe Kognitive Signalverarbeitung betreut wurde. Sie erhielt zwei Stipendien von UbiCrypt (DFG-Graduiertenkolleg) und CASA (DFG-Exzellenzcluster).
Challenges and Threats in Generative AI: Exploits and Misuse
Inhaltszusammenfassung
In diesem Vortrag werden die Sicherheitsherausforderungen im Zusammenhang mit generativer KI genauer erläutert.
Diese beziehen sich auf zwei mögliche Kategorien: zum einen auf manipulierte Inputs und zum anderen auf die missbräuchliche Verwendung von computergenerierten Ergebnissen.
Die Referentin: Sahar Abdelnabi
Die Referentin: Sahar Abdelnabi
Sahar Abdelnabi ist KI-Sicherheitsforscherin am Microsoft Security Response Center (Cambridge, UK). Zuvor war sie Doktorandin am CISPA - Helmholtz-Zentrum für Sicherheit in der Informationstechnik. In ihrer Forschung beschäftigt sie sich mit den sicherheits- und gesellschaftspolitischen Herausforderungen, die mit dem Einsatz von KI und maschinellem Lernen verbunden sind.
On New Security and Safety Challenges Posed by LLMs and How to Evaluate Them
Inhaltszusammenfassung
Large Language Models finden bereits in vielen Bereichen Anwendung. Doch ihr Einsatz bringt auch neue Sicherheitsrisiken mit sich. Aufgrund ihrer dynamischen Natur sind LLMs beispielsweise schwieriger zu bewerten und zu kontrollieren.
In diesem Vortrag werden einige der Sicherheitsrisiken von LLMs beleuchtet
Der Referent: Steffen Albrecht
Der Referent: Dr. Steffen Albrecht
Dr. Steffen Albrecht ist wissenschaftlicher Mitarbeiter im Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Er berät Bundestagsabgeordnete in Fragen zu wissenschaftlichen und technologischen Entwicklungen. Nach seiner Promotion in Soziologie in Hamburg arbeitete er mehrere Jahre an Universitäten und in Unternehmen in Hamburg, Berlin und Dresden, wo er die Auswirkungen der Digitalisierung auf die Gesellschaft und deren verschiedene Bereiche, insbesondere Bildung, Politik und Wissenschaft, erforschte. Derzeit konzentriert er sich auf Bio- und Medizintechnologien, Digitalisierung und künstliche Intelligenz. Zudem ist er an der Weiterentwicklung von Methoden der Technikfolgenabschätzung beteiligt.
Contextualizing LLMs – What are the social and ethical implications?
Inhaltszusammenfassung
Im Mittelpunkt dieses Vortrags stehen die sozialen Auswirkungen der weit verbreiteten Nutzung großer Sprachmodelle. Steffen Albrecht erörtert, wie generative KI die öffentliche Debatte, die Verwaltung und die Kunst verändern könnte, und wie Politik und Gesellschaft diese Entwicklungen steuern können. Denn um das Potenzial und die Grenzen aktueller KI-Systeme zu erkennen und Wege zu ihrer Verbesserung zu finden, müssen wir über ihre technologischen Funktionen hinausblicken und den Kontext ihrer Entwicklung und Nutzung berücksichtigen.
Der Referent: Bert Heinrichs
Der Referent: Bert Heinrichs
Bert Heinrichs ist Professor für Ethik und Angewandte Ethik am Institut für Wissenschaft und Ethik (IWE) der Universität Bonn und Leiter der Arbeitsgruppe "Neuroethik und Ethik der KI" am Forschungszentrum Jülich.
Er studierte Philosophie, Mathematik und Pädagogik in Bonn und Grenoble. Er schloss sein Studium 2001 mit dem Magister ab, promovierte 2007 und habilitierte sich 2013.
Vor seiner jetzigen Tätigkeit war er Leiter der wissenschaftlichen Abteilung des Deutschen Referenzzentrums für Ethik in den Biowissenschaften (DRZE). Er arbeitet zu Themen der Neuroethik, Ethik der KI, Forschungsethik und Medizinethik. Er interessiert sich auch für Fragen der zeitgenössischen Metaethik.
Ethical Considerations on Hate Speech and AI
Inhaltszusammenfassung
In diesem Vortrag werden ethische Überlegungen zum Umgang mit Hate Speech präsentiert. Das Hauptaugenmerk wird darauf liegen, wie KI helfen kann, die Verbreitung von Hate Speech zu verhindern und welche Probleme damit einhergehen können. Dabei wird zwischen zwei Problemfeldern unterschieden: einerseits Hate Speech auf Social-Media-Plattformen und andererseits Hate Speech, die von LLMs erzeugt wird.
Während im erstgenannten Fall unbedachtes Eingreifen zu Zensur führen kann, besteht beim Zweitgenannten die Gefahr der Behinderung der Innovationskraft behindert wird. Es ist daher wichtig, überzeugende ethische Kompromisse zu identifizieren und Möglichkeiten zu entwickeln, diese technisch umzusetzen.
Der Referent: Jan Ebert
Der Referent: Jan Ebert
Jan Ebert
Jan Ebert hat Kognitive Informatik und Intelligente Systeme an der Universität Bielefeld studiert. Er arbeitet am Jülich Supercomputing Centre als Helmholtz AI Consultant zu arbeiten. Er unterstützt Forscher in verschiedenen Bereichen bei der Anwendung von Techniken der Künstlichen Intelligenz (KI) für ihre Forschung und war Mitbegründer von LAION, einer offenen Community für offene KI-Projekte.
Weitere Arbeitsschwerpunkte liegen auf Transformers und Large Language Models. Jan Ebert hat an Projekten wie OpenGPT-X und TrustLLM mitgearbeitet, um intelligente und stichhaltige Sprachmodelle für europäische Sprachen zu erstellen.
ChatGPT's Backgrounds: Exploring the World of Large Language Models
Inhaltszusammenfassung
In diesem Vortrag werden verschiedene Schlüsselaspekte des Trainings von LLMs ausführlich erläutert. Dazu gehören Diskussionen über die Architektur solcher Modelle, die Auswahl und das Feintuning von Trainingsdaten sowie die Herausforderungen und Lösungsansätze im Umgang mit großen Datensätzen und Rechenressourcen. Es werden auch aktuelle Forschungstrends und methodische Innovationen im Bereich des LLM-Trainings diskutiert.
Darüber hinaus werden während des Vortrags verschiedene exemplarische Anwendungen und Einsatzmöglichkeiten von LLMs vorgestellt. Dies umfasst Anwendungen in der natürlichen Sprachverarbeitung, der automatischen Textgenerierung, der Übersetzung, der Sentimentanalyse und vielem mehr. Dabei werden auch praktische Fallstudien und Erfolgsgeschichten aus Industrie und Forschung präsentiert, um die Vielseitigkeit und das Potenzial von LLMs zu veranschaulichen.
Ein wichtiger Teil des Vortrags ist der aktuelle Stand der Technologie und ein Ausblick in die Zukunft. Hierbei werden aktuelle Entwicklungen und Trends in der LLM-Forschung und -Anwendung beleuchtet, sowie potenzielle Herausforderungen und Chancen diskutiert, die sich in den kommenden Jahren ergeben könnten. Es werden auch mögliche Anwendungsgebiete jenseits des aktuellen Anwendungsspektrums betrachtet, um einen Blick auf zukünftige Entwicklungen und Innovationen im Bereich der Sprachtechnologie zu werfen.
Ally or Adversary: Examining the Impact of Large Language Models on Academics and Academic Work
Inhaltszusammenfassung:
In diesem Vortrag werden die Auswirkungen von Large Language Models (LLMs) auf die Wissenschaft untersucht und vorgestellt. Es werden potenzielle Nutzen und Risiken für das wissenschaftliche System und den Beruf des Wissenschaftlers diskutiert. Ethische Fragen und die Rolle von LLMs bei akademischen Aufgaben werden anhand empirischer Daten beleuchtet. Darüber hinaus wird die sich wandelnde Rolle von Akademikern in der digitalen Welt erörtert, einschließlich der Datafizierung und Quantifizierung von Wissenschaftlern und ihren Institutionen sowie zukünftiger Herausforderungen.