Entdecken Sie die Welt der großen Sprachmodelle:

Lecture Series on AI and Large Language Models

Die aktuelle KI-Revolution wird stark von großen Sprachmodellen vorangetrieben. Mit HIDAs Lecture Series on AI and LLMs erhalten Sie Einblick in verschiedene Facetten des Themas.

Nicht erst seit dem Einsatz von ChatGPT ist die Nutzung, Entwicklung und Implementierung von KI und großen Sprachmodellen von höchstem Interesse für die wissenschaftliche Gemeinschaft.

Aus diesem Grund organisiert die Helmholtz Information & Data Science Academy (HIDA) eine Vorlesungsreihe mit monatlichen Lectures zu diesen Themenbereichen.

Das Themenspektrum der Vorträge ist breit gefächert: Es reicht vom technischen Basiswissen über die Systeme über die Auswirkungen auf den Wissenschaftsbetrieb bis hin zu ethischen Fragen, die sich aus dem Einsatz von KI und LLMs ergeben können.

Alle Referenten sind hochqualifizierte Forschende aus der Helmholtz-Gemeinschaft und ihren Partnern.

Kommende Termine

A Short Introduction to Efficient Natural Language Processing, 25.11.2024

 

Noch einmal ansehen: Vergangene Lectures on AI and LLMs

Der Referent: Fredrik Heintz

Der Referent: Fredrik Heintz

Fredrik Heintz ist Professor für Informatik an der Universität Linköping, wo er die Abteilungen für Künstliche Intelligenz und Integrierte Computersysteme (AIICS) sowie das Reasoning and Learning Lab (ReaL) leitet. Sein Forschungsschwerpunkt liegt auf Künstlicher Intelligenz, insbesondere auf vertrauenswürdiger KI und der Schnittstelle zwischen maschinellem Denken und maschinellem Lernen.

TrustLLM - Towards Trustworthy and Factual Language Models

Inhaltszusammenfassung

In diesem Vortrag wird das EU-Projekt "TrustLLM" präsentiert, dessen zentrales Ziel die Entwicklung offener, verlässlicher und neutraler Large Language Models (LLMs) ist. Der Fokus liegt dabei zunächst auf den germanischen Sprachen. Dies schafft die Basis für eine fortschrittliche, offene Plattform, die modulare und erweiterbare europäische LLMs der nächsten Generation unterstützt.

Die Referentin: Isra Mekki

Die Refrentin: Isra Mekki

Isra Mekki ist Machine Learning Engineer bei Helmholtz AI und hat sich auf Machine Learning und Softwareentwicklung spezialisiert. Isra Mekki hat an der ESI in Algier Informatik studiert. Anschließend hat sie an der PSL Research University in Paris einen Master in Data Science und maschinellem Lernen erworben. Bevor sie zu Helmholtz AI kam, sammelte sie Erfahrungen in der automatischen Spracherkennung bei einem Start-up und später als Dateningenieurin bei Orange France.

ChatGPT in Action: Enhancing Your Workflow

Inhaltszusammenfassung

Viele Nutzer verwenden ChatGPT, ohne die Möglichkeiten vollständig auszuschöpfen. Diese Lecture soll aufzeigen, wie man durch gezieltes Prompt Engineering das volle Potenzial von Anwendungen wie ChatGPT, die auf Large Language Models (LLMs) basieren, nutzen kann.

Das Event richtet sich sowohl an Einsteiger, die noch keine Erfahrungen mit ChatGPT haben, als auch an diejenigen, die sich über bewährte Strategien, mögliche Herausforderungen und Grenzen dieser Technologie informieren möchten.

Die Referentin: Lea Schönherr

Die Referentin: Lea Schönherr

Lea Schönherr ist Tenure-Track-Faculty am CISPA Helmholtz-Zentrum für Informationssicherheit. Sie forscht zu Informationssicherheit mit einem Schwerpunkt auf Adversarial Machine Learning. Sie promovierte 2021 an der Ruhr-Universität Bochum, wo sie von Professor Dr.-Ing. Dorothea Kolossa in der Arbeitsgruppe Kognitive Signalverarbeitung betreut wurde. Sie erhielt zwei Stipendien von UbiCrypt (DFG-Graduiertenkolleg) und CASA (DFG-Exzellenzcluster).

Challenges and Threats in Generative AI: Exploits and Misuse

Inhaltszusammenfassung

In diesem Vortrag werden die Sicherheitsherausforderungen im Zusammenhang mit generativer KI genauer erläutert.

Diese beziehen sich auf zwei mögliche Kategorien: zum einen auf manipulierte Inputs und zum anderen auf die missbräuchliche Verwendung von computergenerierten Ergebnissen.

Die Referentin: Sahar Abdelnabi

Die Referentin: Sahar Abdelnabi

Sahar Abdelnabi ist KI-Sicherheitsforscherin am Microsoft Security Response Center (Cambridge, UK). Zuvor war sie Doktorandin am CISPA - Helmholtz-Zentrum für Sicherheit in der Informationstechnik. In ihrer Forschung beschäftigt sie sich mit den sicherheits- und gesellschaftspolitischen Herausforderungen, die mit dem Einsatz von KI und maschinellem Lernen verbunden sind. 

On New Security and Safety Challenges Posed by LLMs and How to Evaluate Them

Inhaltszusammenfassung

Large Language Models finden bereits in vielen Bereichen Anwendung. Doch ihr Einsatz bringt auch neue Sicherheitsrisiken mit sich. Aufgrund ihrer dynamischen Natur sind LLMs beispielsweise schwieriger zu bewerten und zu kontrollieren.

In diesem Vortrag werden einige der Sicherheitsrisiken von LLMs beleuchtet

 

Der Referent: Steffen Albrecht

Der Referent: Dr. Steffen Albrecht

Dr. Steffen Albrecht ist wissenschaftlicher Mitarbeiter im Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Er berät Bundestagsabgeordnete in Fragen zu wissenschaftlichen und technologischen Entwicklungen. Nach seiner Promotion in Soziologie in Hamburg arbeitete er mehrere Jahre an Universitäten und in Unternehmen in Hamburg, Berlin und Dresden, wo er die Auswirkungen der Digitalisierung auf die Gesellschaft und deren verschiedene Bereiche, insbesondere Bildung, Politik und Wissenschaft, erforschte. Derzeit konzentriert er sich auf Bio- und Medizintechnologien, Digitalisierung und künstliche Intelligenz. Zudem ist er an der Weiterentwicklung von Methoden der Technikfolgenabschätzung beteiligt.

Contextualizing LLMs – What are the social and ethical implications?

Inhaltszusammenfassung

Im Mittelpunkt dieses Vortrags stehen die sozialen Auswirkungen der weit verbreiteten Nutzung großer Sprachmodelle. Steffen Albrecht erörtert, wie generative KI die öffentliche Debatte, die Verwaltung und die Kunst verändern könnte, und wie Politik und Gesellschaft diese Entwicklungen steuern können. Denn um das Potenzial und die Grenzen aktueller KI-Systeme zu erkennen und Wege zu ihrer Verbesserung zu finden, müssen wir über ihre technologischen Funktionen hinausblicken und den Kontext ihrer Entwicklung und Nutzung berücksichtigen.

Der Referent: Bert Heinrichs

Der Referent: Bert Heinrichs

Bert Heinrichs ist Professor für Ethik und Angewandte Ethik am Institut für Wissenschaft und Ethik (IWE) der Universität Bonn und Leiter der Arbeitsgruppe "Neuroethik und Ethik der KI" am Forschungszentrum Jülich.

Er studierte Philosophie, Mathematik und Pädagogik in Bonn und Grenoble. Er schloss sein Studium 2001 mit dem Magister ab, promovierte 2007 und habilitierte sich 2013.

Vor seiner jetzigen Tätigkeit war er Leiter der wissenschaftlichen Abteilung des Deutschen Referenzzentrums für Ethik in den Biowissenschaften (DRZE). Er arbeitet zu Themen der Neuroethik, Ethik der KI, Forschungsethik und Medizinethik. Er interessiert sich auch für Fragen der zeitgenössischen Metaethik.

Ethical Considerations on Hate Speech and AI

Inhaltszusammenfassung

In diesem Vortrag werden ethische Überlegungen zum Umgang mit Hate Speech präsentiert. Das Hauptaugenmerk wird darauf liegen, wie KI helfen kann, die Verbreitung von Hate Speech zu verhindern und welche Probleme damit einhergehen können. Dabei wird zwischen zwei Problemfeldern unterschieden: einerseits Hate Speech auf Social-Media-Plattformen und andererseits Hate Speech, die von LLMs erzeugt wird.

Während im erstgenannten Fall unbedachtes Eingreifen zu Zensur führen kann, besteht beim Zweitgenannten die Gefahr der Behinderung der Innovationskraft behindert wird. Es ist daher wichtig, überzeugende ethische Kompromisse zu identifizieren und Möglichkeiten zu entwickeln, diese technisch umzusetzen.

 

Der Referent: Jan Ebert

Der Referent: Jan Ebert

Jan Ebert

Jan Ebert hat Kognitive Informatik und Intelligente Systeme an der Universität Bielefeld studiert. Er arbeitet am Jülich Supercomputing Centre als Helmholtz AI Consultant zu arbeiten. Er unterstützt Forscher in verschiedenen Bereichen bei der Anwendung von Techniken der Künstlichen Intelligenz (KI) für ihre Forschung und war Mitbegründer von LAION, einer offenen Community für offene KI-Projekte.


Weitere Arbeitsschwerpunkte liegen auf Transformers und Large Language Models. Jan Ebert hat an Projekten wie OpenGPT-X und TrustLLM mitgearbeitet, um intelligente und stichhaltige Sprachmodelle für europäische Sprachen zu erstellen.

ChatGPT's Backgrounds: Exploring the World of Large Language Models

Inhaltszusammenfassung

In diesem Vortrag werden verschiedene Schlüsselaspekte des Trainings von LLMs ausführlich erläutert. Dazu gehören Diskussionen über die Architektur solcher Modelle, die Auswahl und das Feintuning von Trainingsdaten sowie die Herausforderungen und Lösungsansätze im Umgang mit großen Datensätzen und Rechenressourcen. Es werden auch aktuelle Forschungstrends und methodische Innovationen im Bereich des LLM-Trainings diskutiert.

Darüber hinaus werden während des Vortrags verschiedene exemplarische Anwendungen und Einsatzmöglichkeiten von LLMs vorgestellt. Dies umfasst Anwendungen in der natürlichen Sprachverarbeitung, der automatischen Textgenerierung, der Übersetzung, der Sentimentanalyse und vielem mehr. Dabei werden auch praktische Fallstudien und Erfolgsgeschichten aus Industrie und Forschung präsentiert, um die Vielseitigkeit und das Potenzial von LLMs zu veranschaulichen.

Ein wichtiger Teil des Vortrags ist der aktuelle Stand der Technologie und ein Ausblick in die Zukunft. Hierbei werden aktuelle Entwicklungen und Trends in der LLM-Forschung und -Anwendung beleuchtet, sowie potenzielle Herausforderungen und Chancen diskutiert, die sich in den kommenden Jahren ergeben könnten. Es werden auch mögliche Anwendungsgebiete jenseits des aktuellen Anwendungsspektrums betrachtet, um einen Blick auf zukünftige Entwicklungen und Innovationen im Bereich der Sprachtechnologie zu werfen.

Der Referent: Jörg Pohle

Der Referent: Jörg Pohle

Jörg Pohle ist Postdoc und Leiter des Forschungsprogramms "Data, actors, infrastructures: The governance of data-driven innovation and cyber security" am Alexander von Humboldt Institut für Internet und Gesellschaft in Berlin.

Ally or Adversary: Examining the Impact of Large Language Models on Academics and Academic Work

Inhaltszusammenfassung:

In diesem Vortrag werden die Auswirkungen von Large Language Models (LLMs) auf die Wissenschaft untersucht und vorgestellt. Es werden potenzielle Nutzen und Risiken für das wissenschaftliche System und den Beruf des Wissenschaftlers diskutiert. Ethische Fragen und die Rolle von LLMs bei akademischen Aufgaben werden anhand empirischer Daten beleuchtet. Darüber hinaus wird die sich wandelnde Rolle von Akademikern in der digitalen Welt erörtert, einschließlich der Datafizierung und Quantifizierung von Wissenschaftlern und ihren Institutionen sowie zukünftiger Herausforderungen.

Alternativ-Text

Newsletter bestellen