Your desktop and mobile views are connected.
Moving desktop elements between page sections will alter mobile and vice versa.
Hold ‘cmd’ or ‘ctrl’ and then drag an element to a new section to avoid changes.
Moving items within sections won’t affect the other view.
Think of your mobile view as a condensed summary of desktop.
A. Expand the content tree to the left
B. Select the visibility icon beside the elements you’d like to show or hide.
All page elements should sit inside the blue page guides. Anything outside is highlighted in red.
Layout Assistant helps you get inside the bounds fast.
A. Navigate to Page Properties
B. Under Layout Assistant, click “Entire Page”. Or select a page section, and apply to a section at a time.
Let’s publish (don’t worry it will only be visible to you).
A. Click ‘Save’,
B. Navigate back to the Page Overview screen
C. Click Publish
Behind the scenes of AI art + music creation (working title)
TBA
Hinter den Kulissen der KI-Kunst- und Musikproduktion (Arbeitstitel)
TBA
AI and data privacy in medicine
This workshop will address privacy issues related to the development and application of AI and machine learning approaches in medicine. After an introduction to important regulatory aspects as well as privacy-enhancing technologies, the participants will develop an anonymization concept, which they will then apply to a synthetic dataset from a COVID-19 registry.
KI und Datenschutz in der Medizin
Dieser Workshop widmet sich Datenschutzfragen im Zusammenhang mit der Entwicklung und Anwendung von KI und maschinellen Lernverfahren in der Medizin. Nach einer Einführung in wichtige regulatorische Aspekte sowie datenschutzfördernde Technologien entwickeln die Teilnehmenden ein Anonymisierungskonzept, das sie abschließend auf einen synthetischen Datensatz aus einem COVID-19-Register anwenden.
Procedural Animism: The cultural politics of imagining Artificial Intelligence
“Procedural Animism” is an investigation into algorithmic agents, or digital artefacts that can be perceived as operating autonomously: bots and chatbots, AI companions and therapists, recommendation systems, non-player characters, and voice assistants. The increasing use of AI agents to “man” functions that were previously fulfilled by humans is a new and uncharted function in the landscape of communication, culture, and politics. While often the “agency” of such algorithms is dismissed in favour of designating them as technologically or socially determined, there are still major questions in regards to their opacity (as the proprietary algorithms are often used) and anthropomorphisation (as these algorithms are often figured, aestheticised, and humanised in a particular way). In my work I explore how these aspects render the audiovisual presentation of these algorithms a political and cultural tool with the potential for manipulating public perceptions and narratives as well as for monetisation. I further explore the cultural politics of the figurations and imaginaries of algorithmic agents as algorithmic Others, whose outlines reveal not only human fears and hopes for technology, but also what it means to be “human” and how normative “humanness” is constructed. Drawing on feminist studies of science and technology, I suggest a critique of currently dominant categorisations of AI and a potential for alternative future imaginaries that might have far-reaching consequences for contemporary social, political, and cultural life.
Prozeduraler Animismus: Die Kulturpolitik der Vorstellung von künstlicher Intelligenz
"Prozeduraler Animismus" ist eine Untersuchung algorithmischer Agenten oder digitaler Artefakte, die als autonom agierend wahrgenommen werden können: Bots und Chatbots, KI-Begleiter*innen und -Therapeut*innen, Empfehlungssysteme, Non-Player-Characters und Sprachassistenten. Der zunehmende Einsatz von KI-Agenten zur Übernahme von Funktionen, die früher von Menschen ausgeführt wurden, ist eine neue und unerforschte Funktion in der Kommunikationslandschaft, Kultur und Politik. Zwar wird die "Handlungsfähigkeit" solcher Algorithmen oft zugunsten der Bezeichnung als technologisch oder gesellschaftlich determiniert abgetan, doch stellen sich nach wie vor wichtige Fragen in Bezug auf ihre Undurchsichtigkeit (da oft proprietäre Algorithmen verwendet werden) und ihre Anthropomorphisierung (da diese Algorithmen oft auf eine bestimmte Weise figuriert, ästhetisiert und vermenschlicht werden). In meiner Arbeit untersuche ich, wie diese Aspekte die audiovisuelle Präsentation dieser Algorithmen zu einem politischen und kulturellen Werkzeug machen, das das Potenzial zur Manipulation öffentlicher Wahrnehmungen und Erzählungen und zur Monetarisierung hat. Darüber hinaus untersuche ich die Kulturpolitik der Figurationen und Imaginationen algorithmischer Agenten als algorithmische Andere, deren Umrisse nicht nur menschliche Ängste und Hoffnungen in Bezug auf Technologie offenbaren, sondern auch, was es bedeutet, "Mensch" zu sein und wie normatives "Menschsein" konstruiert wird. Unter Rückgriff auf feministische Wissenschafts- und Technologiestudien schlage ich eine Kritik der gegenwärtig vorherrschenden Kategorisierungen von KI und ein Potenzial für alternative Zukunftsvorstellungen vor, die weitreichende Konsequenzen für das heutige soziale, politische und kulturelle Leben haben könnten.
Technological violence and high-risk experiments at the border
Practices of border violence increasingly rely on high-risk technological experiments. Predictive analytics used for interdictions, AI-power lie detectors and powerful sound cannons are just some of the more recent tools that states, private entities, and even international organizations use to manage migration. Certain places like borders serve as testing grounds for new technologies, because regulation and oversight are limited and an ‘anything goes’ frontier attitude informs the development and deployment of surveillance and automation. A growing multi-billion euro border industrial complex also underpins the development and deployment of high-risk new technologies. Based on comparative work in Europe, East Africa, and the US-Mexico border since 2018, this talk attempts to foreground the lived experiences of people on the move as they are interacting with the sharpest edges of experimental border technologies and blends ethnographic methodology with international human rights law analysis. The issues around emerging technologies in the management of migration are not just about the inherent use of technology but rather about how it is used and by whom, with states and private actors setting the stage for what is possible and which priorities matter. Who gets to ask questions about proposed innovations and why are perspectives from the ground up relegated to the margins?
Technologische Gewalt und Hochrisiko-Experimente an Grenzen
Die Praktiken der Grenzgewalt stützen sich zunehmend auf hochriskante technologische Experimente. Prädiktive Analytik für Grenzverbote, KI-gestützte Lügendetektoren und leistungsstarke Schallkanonen sind nur einige der neueren Instrumente, die Staaten, private Einrichtungen und sogar internationale Organisationen zur Steuerung der Migration einsetzen. Bestimmte Orte wie Grenzen dienen als Testgelände für neue Technologien, da Regulierung und Aufsicht begrenzt sind und die Entwicklung und der Einsatz von Überwachungs- und Automatisierungssystemen von einer "Anything Goes"-Haltung bestimmt werden. Ein wachsender, milliardenschwerer industrieller Komplex an den Grenzen unterstützt ebenfalls die Entwicklung und den Einsatz neuer Hochrisikotechnologien. Basierend auf vergleichenden Arbeiten in Europa, Ostafrika und an der Grenze zwischen den USA und Mexiko seit 2018 versucht dieser Vortrag, die gelebten Erfahrungen von Menschen in Bewegung in den Vordergrund zu stellen, die mit den schärfsten Kanten experimenteller Grenztechnologien interagieren, und verbindet ethnographische Methodik mit der Analyse internationaler Menschenrechtsgesetze. Bei den Fragen rund um neue Technologien zur Steuerung der Migration geht es nicht nur um die Nutzung der Technologie an sich, sondern vielmehr darum, wie und von wem sie genutzt wird, wobei Staaten und private Akteure die Bühne dafür bereiten, was möglich ist und welche Prioritäten wichtig sind. Wer darf Fragen zu vorgeschlagenen Innovationen stellen und warum werden Perspektiven von unten an den Rand gedrängt?
Challenging the status quo: A workshop on combating biased data and knowledge in the digital age
During this workshop, participants will learn about the root causes and impacts of unequal online data, e-colonialism and knowledge contribution. They will explore strategies for addressing these issues, such as encouraging more diverse participation in online content creation and using inclusive approaches for data collection and analysis. Participants will also gain insights into the potential consequences of biased data on AI models and how to mitigate these risks. These discussions will be supported by practical exercises that will enable attendees to develop their critical thinking and problem-solving skills. Additionally, group activities will foster collaboration and encourage the sharing of diverse perspectives. The workshop will be led by two experienced professionals in the field who have extensive knowledge of the topic. Overall, this workshop provides a valuable opportunity for individuals to deepen their understanding of the issues surrounding unequal online knowledge and data contribution, gain practical skills to address these issues, and network with like-minded professionals in the field.
Den Status quo hinterfragen: Ein Workshop über den Kampf gegen Daten-Bias und Wissen im digitalen Zeitalter
In diesem Workshop lernen die Teilnehmenden die Ursachen und Auswirkungen von ungleichen Online-Daten, E-Kolonialismus und Wissensbeiträgen kennen. Sie werden Strategien zur Bewältigung dieser Probleme untersuchen, etwa die Förderung einer vielfältigeren Beteiligung an der Erstellung von Online-Inhalten und die Verwendung inklusiver Ansätze für die Datenerfassung und -analyse. Die Teilnehmenden werden außerdem Einblicke in die potenziellen Folgen verzerrter Daten für KI-Modelle gewinnen und erfahren, wie diese Risiken gemildert werden können. Diese Diskussionen werden durch praktische Übungen unterstützt, die es den Teilnehmenden ermöglichen, ihr kritisches Denken und ihre Problemlösungsfähigkeiten zu entwickeln. Darüber hinaus werden Gruppenaktivitäten die Zusammenarbeit fördern und den Austausch verschiedener Perspektiven anregen. Der Workshop wird von zwei erfahrenen Fachleuten auf diesem Gebiet geleitet, die über umfassende Kenntnisse zu diesem Thema verfügen. Insgesamt bietet dieser Workshop eine wertvolle Gelegenheit für Einzelpersonen, ihr Verständnis für die Probleme im Zusammenhang mit ungleichem Online-Wissen und Datenbeitrag zu vertiefen, praktische Fähigkeiten zu erwerben, um diese Probleme anzugehen, und sich mit gleichgesinnten Fachleuten auf diesem Gebiet zu vernetzen.
Artificial Intelligence in Sports
This seminar provides a deep dive into the multitude of possible AI applications in sports – science and industry. The first part will showcase the spectrum of sports topics where AI already plays a role today, such as performance analysis, public health or sports broadcasting. The second part explores current research on the analysis of collective movement behavior by means of graph neural networks and provides a short guide on how to get started with sports data analysis. The session concludes with Q&A and an open discussions on your ideas and topics (e.g. societal impacts or ethical considerations).
Künstliche Intelligenz im Sport
Dieses Seminar bietet einen tiefen Einblick in die Vielzahl der möglichen KI-Anwendungen im Sport, sowohl in der Wissenschaft als auch in der Industrie. Im ersten Teil wird das Spektrum der Sportthemen vorgestellt, in denen KI bereits heute eine Rolle spielt, z. B. Leistungsanalyse, öffentliche Gesundheit oder Sportübertragungen. Der zweite Teil beleuchtet die aktuelle Forschung zur Analyse des kollektiven Bewegungsverhaltens mit Hilfe von graphischen neuronalen Netzen und bietet eine kurze Anleitung für den Einstieg in die Sportdatenanalyse. Die Sitzung schließt mit Fragen und Antworten und einer offenen Diskussion über Ihre Ideen und Themen (z. B. gesellschaftliche Auswirkungen oder ethische Überlegungen).
Towards sustainable AI – 3 perspectives
In this workshop we want to explore the principles of sustainable AI, highlighting its social, environmental, and economic impacts that need to be considered in its development and application. Through a short presentation, we will introduce an embedded perspective on sustainable AI developed within the SustAIn project. Participants will then discuss and develop approaches to sustainable AI, using the creativity method "Three Perspectives" to view the task from different roles: Dreamer, Realist, and Critic. The goal is to identify possible blind spots, provide constructive criticism, and create motivation for commitment towards developing more sustainable AI systems.
Auf dem Weg zur nachhaltigen KI - 3 Perspektiven
Dieser Workshop wird sich mit den Grundsätzen der nachhaltigen KI befassen und die sozialen, ökologischen und wirtschaftlichen Auswirkungen hervorheben, die bei ihrer Entwicklung und Anwendung berücksichtigt werden müssen. In einem Kurzinput werden wir die eingebettete Perspektive auf nachhaltige KI vorstellen, die wir im Rahmen des SustAIn-Projekts entwickelt haben. Die Teilnehmer werden dann Ansätze für nachhaltige KI diskutieren und entwickeln, indem sie die Kreativitätsmethode "Drei Perspektiven" anwenden, die helfen soll die Aufgabe aus verschiedenen Rollen zu betrachten: Träumer, Realist und Kritiker. Ziel ist es, mögliche blinde Flecken zu identifizieren, konstruktive Kritik zu üben und Motivation für das Engagement zur Entwicklung nachhaltigerer KI-Systeme zu schaffen.
Philosophy and epistemology of complexity, AI, and social robots (working title)
TBA
Philosophie und Erkenntnistheorie der Komplexität, KI und sozialen Roboter (Arbeitstitel)
TBA
Panel discussion: AI Systems in times of crisis
Pandemics, natural disasters, wars: there are crises in the world practically all the time. For some time now, AI systems have been used to manage crises. This also brings with it an important opportunity to reflect on the role of AI systems in extreme situations. How can resilient and trustworthy infrastructures be built? What are the ethical implications of systems and increasing dependence on them?
Podiumsdiskussion: KI-Systeme in Krisenzeiten
Pandemien, Naturkatastrophen, Kriege: Krisen gibt es auf der Welt praktisch ständig. Seit einiger Zeit werden KI-Systeme zur Bewältigung von Krisen eingesetzt. Dies bietet auch eine gute Gelegenheit, über die Rolle von KI-Systemen in Extremsituationen nachzudenken. Wie können widerstandsfähige und vertrauenswürdige Infrastrukturen aufgebaut werden? Welche ethischen Implikationen haben die Systeme und die zunehmende Abhängigkeit von ihnen?
Green AI Hub SME Workshop
AI technologies offer a variety of new approaches for companies to improve their resource efficiency and achieve savings in material and energy consumption. Potential for more sustainable business lies along the entire value chain – from development to recycling. Which AI application fields exist and how the algorithms can be put in the service of resource efficiency, you will learn in the framework of the project "Green-AI Hub Mittelstand", which is funded by the BMUV. Teresa Petzsche from the German Research Center for Artificial Intelligence (DFKI) and Jana Nicolas from the Wuppertal Institute will address these topics and discuss them interactively with you using an example.
Workshop Green-AI Hub Mittelstand
KI-Technologien bieten eine Vielzahl neuer Ansätze für Unternehmen, ihre Ressourceneffizienz zu verbessern und Einsparungen beim Material- und Energieverbrauch zu erzielen. Potenziale für nachhaltigeres Wirtschaften liegen entlang der kompletten Wertschöpfungskette – von der Entwicklung bis zum Recycling. Welche KI-Anwendungsfelder existieren und wie die Algorithmen in den Dienst der Ressourceneffizienz gestellt werden können, erfahren Sie im Rahmen des vom BMUV geförderten Projekts "Green-AI Hub Mittelstand". Teresa Petzsche vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Jana Nicolas vom Wuppertal Institut für Klima, Umwelt, Energie widmen sich diesen Themen und wollen sie interaktiv mit Ihnen anhand eines Beispiels diskutieren.
The brain is not a computer
The impressive capabilities of neural networks tempt us to think of Deep Learning as an approximation for information processing in the brain, or the brain as being some kind of computer. In this session we will examine some crucial differences between biological and silicon systems, in terms of architecture, activity and learning. We will then look in detail at some features of the brain that could inspire future advances in artificial neural networks.
Das Gehirn ist kein Computer
Die beeindruckenden Fähigkeiten neuronaler Netze verleiten uns dazu, Deep Learning als eine Annäherung an die Informationsverarbeitung im Gehirn zu betrachten – oder das Gehirn als eine Art Computer. In dieser Session werden wir einige entscheidende Unterschiede zwischen biologischen und Silizium-Systemen in Bezug auf Architektur, Aktivität und Lernen untersuchen. Anschließend werden wir uns einige Merkmale des Gehirns im Detail ansehen, die künftige Fortschritte bei künstlichen neuronalen Netzen inspirieren könnten.
Rise of the cyber-citizen
Emerging technologies have a great impact on public life. Governments use digital systems to watch and assess citizens, using social credit and risk scoring. Large tech companies use AI-powered rating, ranking, and recommendation systems. These systems are not without consequence: what we can do in cyberspace and, increasingly, in the offline world, depends on whether our behaviors are sufficiently aligned with them. In this talk, I argue that we witness the rise of the cybernetic citizen. Citizenship shaped by enlightenment philosophy is progressively disappearing: rights are turned into programmable conditions, status into a never-ending process, and excellence into effectiveness.
Der Aufstieg des Cyber-Bürgers
Neue Technologien haben einen großen Einfluss auf das öffentliche Leben. Regierungen setzen digitale Systeme ein, um Bürger*innen zu überwachen und zu bewerten, indem sie Sozialkredite und Risikobewertungen einsetzen. Große Technologieunternehmen nutzen KI-gestützte Bewertungs-, Ranking- und Empfehlungssysteme. Diese Systeme sind nicht ohne Folgen: Was wir im Cyberspace und zunehmend auch in der Offline-Welt tun können, hängt davon ab, ob unser Verhalten ausreichend auf sie abgestimmt ist. In diesem Vortrag vertrete ich die Ansicht, dass wir den Aufstieg des*r kybernetischen Bürger*in erleben. Die von der Aufklärungsphilosophie geprägte Bürgerschaft verschwindet nach und nach: Rechte werden zu programmierbaren Bedingungen, Status zu einem nie endenden Prozess und Exzellenz zu Effektivität.
Post-conceptual Art: A pataphysical object
In "The Conspiracy of Art" Baudrillard claims art has entered a “transaesthetic” state wherein aesthetics is pushed to its limit, calling Warhol the greatest simulator. Indeed, with Duchamp’s ready-mades, he believed we had entered a culture of the aesthetics of banality, and that soon all of society would be consumed by this movement. Whilst on first glance it is hard to argue with this pessimistic diagnosis, since then post-conceptual art has continued to problematize the art object as a conveyor of meaning, and even the necessity for materiality itself within the work of art. With the advent of “AI art”, the boundaries of conceptual art are further problematized, asking us to inquire after the nature and value of aesthetic production.
If with Adorno we should ask not after the function of beauty in art or other such standard objectives nor urge it to be overtly political in content but rather inquire after its ‘truth content’, how do we approach the meaning of simulation? A concept which must exist not in the subject’s perception but rather in the art object’s dialectical relationship to multiple societal and historical factors as well as the internal dialectics of the work itself. Or perhaps as Baudrillard advises, it is a question of pataphysics: a science of imaginary solutions?
Post-konzeptuelle Kunst: Ein pataphysisches Objekt
In "Die Verschwörung der Kunst" behauptet Baudrillard, die Kunst sei in einen "transästhetischen" Zustand eingetreten, in dem die Ästhetik an ihre Grenzen stößt, und nennt Warhol den größten Simulanten. In der Tat glaubte er, dass wir mit Duchamps Ready-mades in eine Kultur der Ästhetik der Banalität eingetreten sind und dass bald die gesamte Gesellschaft von dieser Bewegung vereinnahmt werden würde. Auf den ersten Blick kann man dieser pessimistischen Diagnose kaum widersprechen, doch seither hat die postkonzeptionelle Kunst das Kunstobjekt als Träger von Bedeutung und sogar die Notwendigkeit von Materialität im Kunstwerk selbst weiter problematisiert. Mit dem Aufkommen der "KI-Kunst" werden die Grenzen der Konzeptkunst weiter problematisiert und wir werden aufgefordert, nach dem Wesen und dem Wert der ästhetischen Produktion zu fragen.
Wenn wir mit Adorno weder nach der Funktion des Schönen in der Kunst oder anderen derartigen Standardzielen fragen sollten noch darauf drängen, dass sie einen offenkundig politischen Inhalt hat, sondern vielmehr nach ihrem "Wahrheitsgehalt" fragen sollten, wie nähern wir uns dann der Bedeutung der Simulation? Ein Konzept, das nicht in der Wahrnehmung des Subjekts, sondern vielmehr in der dialektischen Beziehung des Kunstobjekts zu vielfältigen gesellschaftlichen und historischen Faktoren sowie in der internen Dialektik des Werks selbst bestehen muss. Oder ist es vielleicht, wie Baudrillard rät, eine Frage der Pataphysik: eine Wissenschaft der imaginären Lösungen?
Taking stock of AI's carbon footprint: What do we know and how do we reduce it?
In recent years the discussion on the environmental impact of machine learning has been gathering momentum. A famous study found that training and tuning a single model emits as much as five cars in their entire lifetime. However, since then there has been more systematic research on the topic. In this workshop we want to give an overview of how machine learning contributes to global GHG emissions, what factors are relevant for the magnitude of the emissions, and what parts of the AI-lifecycle matter. We conclude the session by taking a closer look into some methods to reduce the emissions of machine learning models.
Eine Bestandsaufnahme des CO2-Fußabdrucks von AI: Was wissen wir und wie können wir ihn verringern?
In den letzten Jahren hat die Diskussion über die Umweltauswirkungen von maschinellem Lernen an Fahrt aufgenommen. Eine berühmte Studie fand heraus, dass das Training und die Abstimmung eines einzigen Modells so viel wie fünf Autos während ihrer gesamten Lebensdauer ausstößt. Seitdem gibt es jedoch mehr systematische Forschung zu diesem Thema. In diesem Workshop wollen wir einen Überblick darüber geben, wie maschinelles Lernen zu den globalen Treibhausgasemissionen beiträgt, welche Faktoren für das Ausmaß der Emissionen relevant sind und welche Teile des KI-Lebenszyklus von Bedeutung sind. Abschließend werden wir uns einige Methoden zur Verringerung der Emissionen von Modellen des maschinellen Lernens genauer ansehen.
Anti(de)colonial AI & the technological haunt
With new advancements in artificial intelligence enforcing the continual need for design justice and intersectional feminism within its discourse, art and critique, Tiara Roxanne will discuss their term "the technological haunt" across paradigms. More specifically, we will look at the technological haunt from a multiplicity of perspectives that ask us how to enforce anti-colonial trajectories when working, thinking, and creating alongside AI. Some questions we will navigate together are: How do we haunt the seduction and predictive mannerisms of artificial intelligence? How can haunting position itself as anti-colonial?
Anti(de)koloniale KI & die technologische Heimsuchung
Angesichts der neuen Fortschritte im Bereich der künstlichen Intelligenz, die eine ständige Notwendigkeit für Design-Gerechtigkeit und intersektionalen Feminismus innerhalb ihres Diskurses, ihrer Kunst und ihrer Kritik mit sich bringen, wird Tiara Roxanne den Begriff der "technologischen Heimsuchung" über Paradigmen hinweg diskutieren. Wir werden die technologischen Heimsuchung aus einer Vielzahl von Perspektiven betrachten, die uns vor die Frage stellen, wie wir antikoloniale Ansätze durchsetzen können, wenn wir mit KI arbeiten, denken und gestalten. Einige Fragen, die wir gemeinsam erörtern werden, sind: Wie können wir die Verführung und die Vorhersagemechanismen der künstlichen Intelligenz heimsuchen? Wie kann sich die Heimsuchung als antikolonial positionieren?
Art and AI
In this talk, artist and researcher Wesley Goatley will discuss how artistic practice using AI tools and technologies can move beyond technocratic spectacle, consumption, and hype and instead consider how they offer unique potential for addressing the most pressing questions of our time.
Kunst und KI
In diesem Vortrag wird der Künstler und Forscher Wesley Goatley erörtern, wie sich die künstlerische Praxis mittels KI-Tools und -Technologien über technokratische Spektakel, Konsum und Hype hinwegsetzen kann und stattdessen ein einzigartiges Potenzial zur Auseinandersetzung mit den dringendsten Fragen unserer Zeit bietet.
How biased is Artificial Intelligence in healthcare?
Resources are increasingly spent on Artificial Intelligence (AI) solutions for medical applications aiming to improve diagnosis, treatment and prevention of diseases. In a healthcare setting, AI models require huge amounts of data with highly comprehensive and, in some cases, longitudinal patient information. However, health datasets generally lack a common structure, format and standardization. In addition, data are not generally integrated across all healthcare providers but exist relatively isolated in electronic healthcare records and are therefore prone to be biased. Therefore, we need to ask ourselves what data is used to train AI algorithms and how fair are current AI developments in healthcare?
Wie fehlerhaft ist Künstliche Intelligenz im Gesundheitswesen?
Zunehmend werden Ressourcen für Lösungen der Künstlichen Intelligenz (KI) für medizinische Anwendungen aufgewendet, um die Diagnose, Behandlung und Prävention von Krankheiten zu verbessern. Im Gesundheitswesen benötigen KI-Modelle riesige Datenmengen mit sehr umfassenden und in einigen Fällen auch längsschnittlichen Patienteninformationen. Allerdings fehlt es den Gesundheitsdatensätzen im Regelfall an einer gemeinsamen Struktur, einem Format und einer Standardisierung. Darüber hinaus sind die Daten in der Regel nicht über alle Gesundheitsdienstleister hinweg integriert, sondern liegen relativ isoliert in elektronischen Gesundheitsakten vor und sind daher anfällig für Verzerrungen. Daher müssen wir uns fragen, welche Daten zum Trainieren von KI-Algorithmen verwendet werden und wie fair die aktuellen KI-Entwicklungen im Gesundheitswesen sind.
Beyond AI Ethics
AI Ethics is of great interest to address threats of AI systems. It represents a growing interdisciplinary effort to ensure that the ethical issues brought about by our increasing reliance on data-driven systems are identified and addressed. Thus far, the major trend has been to emphasize the issue of "bias" and the values of "fairness, accountability, and transparency" in mitigating its effects. This is a promising development, especially for technical fields that have not historically foregrounded ethical issues, and as funding mechanisms for research on data and ethics proliferate. However, addressing bias in a dataset is a tiny technological band aid for a much larger problem. The aim of this masterclass is to investigate alternative concepts to AI Ethics to promote a positive, inclusive future narrative. We are going to discuss how feminism can play an important role towards AI justice not only from a data perspective. This is an interactive session welcoming everybody!
Jenseits der KI-Ethik
Die KI-Ethik ist von großem Interesse, wenn es darum geht, sich mit den Gefahren von KI-Systemen auseinanderzusetzen. Sie stellt ein wachsendes interdisziplinärer Bestreben dar, das sicherstellen soll, dass die ethischen Probleme, die durch unsere zunehmende Abhängigkeit von datengesteuerten Systemen entstehen, erkannt und angegangen werden. Bisher bestand der Haupttrend darin, das Problem der "Voreingenommenheit" und die Werte "Fairness, Verantwortlichkeit und Transparenz" zu betonen, um deren Auswirkungen zu mildern. Dies ist eine vielversprechende Entwicklung, insbesondere für technische Bereiche, in denen ethische Fragen in der Vergangenheit nicht im Vordergrund standen, und da die Finanzierungsmechanismen für die Forschung zu Daten und Ethik zunehmen. Die Behandlung von Verzerrungen in einem Datensatz ist jedoch nur ein kleiner Notbehelf für ein viel größeres Problem. Ziel dieser Masterclass ist es, alternative Konzepte zur KI-Ethik zu untersuchen, um ein positives, inklusives Zukunftsnarrativ zu fördern. Wir werden diskutieren, wie der Feminismus nicht nur aus der Datenpersektive eine wichtige Rolle für die KI-Gerechtigkeit spielen kann. Dies ist eine interaktive Sitzung, zu der jede*r willkommen ist!
Artificial Intelligence: Examples of AI gone wrong and ethical questions
In this interactive session, Dafna Burema will delve into the ethical implications of Artificial Intelligence, including instances of AI failures. She will explore the prospect of building sustainable futures alongside robots, as well as the ongoing questions scientists are confronted with in their daily work with AI.
This session is brought to you by the Berlin Science Week.
Künstliche Intelligenz: Beispiele für fehlerhafte KI und ethische Fragen
In dieser interaktiven Sitzung wird Dafna Burema die ethischen Implikationen von Künstlicher Intelligenz erörtern – einschließlich Fällen, in denen der KI-Einsatz missglückt ist. Sie wird die Möglichkeiten der Gestaltung einer nachhaltigen Zukunft an der Seite von Robotern betrachten und auf aktuelle Fragen eingehen, mit denen Wissenschaftler*innen bei ihrer täglichen Arbeit mit KI konfrontiert sind.
Diese Veranstaltung wird von der Berlin Science Week präsentiert.
AI for sustainable fashion and design
As we observe that AI has penetrated almost every aspect of our daily lives, it also includes the one closest to us – our clothing. AI-based applications forecast trends and support the creation process of designers. Synthetic models and virtual assistants help consumers make purchasing decisions that suit their individual style. Accurate material, inventory and demand analytics contribute to more efficient and environmentally friendly production on a large scale. But are smart technologies really making fashion and design sustainable as a result? In this fishbowl discussion, we analyse the current state of the fashion industry from social, environmental and economic perspectives and ask how AI, fashion and sustainability can actually go hand in hand.
KI für nachhaltige Mode und Design
Wir beobachten, dass KI in fast jeden Bereich unseres Alltags eingedrungen ist. Und das schließt auch jenen ein, der uns am nächsten ist – unsere Kleidung. KI-basierte Anwendungen sehen Trends voraus und unterstützen den Kreationsprozess von Designer*innen. Synthetische Models und virtuelle Assistenzen helfen Konsument*innen, die zu ihrem individuellen Stil passende Kaufentscheidung zu treffen. Präzise Material-, Bestand- und Nachfrageanalysen tragen zu einer effizienteren und nachhaltigeren Produktion im großen Maßstab bei. Aber machen smarte Technologien Mode und Design wirklich nachhaltig? In dieser Fishbowl-Diskussion analysieren wir den aktuellen Zustand der Modeindustrie aus sozialer, ökologischer und ökonomischer Perspektive und fragen, wie KI, Mode und Nachhaltigkeit tatsächlich Hand in Hand gehen können.
AI in Cyber Warfare and Armed Conflicts
With the rapid advancement of AI technology, there is a growing concern about its use in cyber warfare and armed conflicts. Such developments are often driven by competition for military superiority and economic interests. This panel seeks to critically examine real-world examples and possible futures of AI in warfare. What is the role of AI in conflict, including its use in autonomous weapon systems and its portrayal in the media? Ethical and legal considerations for international regulations and standards are explored to prevent misuse and ensure transparency of responsibilities in the use of AI.
KI in der Cyber-Kriegsführung und in bewaffneten Konflikten
Angesichts des rasanten Fortschritts von KI-Technologien wächst die Besorgnis über ihren Einsatz in der Cyber-Kriegsführung und in bewaffneten Konflikten. Solche Entwicklungen werden oft durch den Wettbewerb um militärische Überlegenheit und wirtschaftliche Interessen angetrieben. In diesem Panel sollen Beispiele aus der Praxis und mögliche Zukunftsszenarien kritisch untersucht werden. Welche Rolle spielt KI in Konflikten, einschließlich ihrer Verwendung in autonomen Waffensystemen und ihrer Darstellung in den Medien? Es werden ethische und rechtliche Überlegungen für internationale Regelungen und Standards untersucht, um Missbrauch zu verhindern und Transparenz der Verantwortlichkeiten beim Einsatz von KI zu gewährleisten.
AI and curating
Curating oftentimes seems like an invisible practice, even while we experience its effects. Mostly through new music suggestions in playlists or the recommendation of images and videos according to one’s taste, it is widely known that not only humans can select according to preferences or other categories – AI is oftentimes better and more original in these tasks.
Depending on the field, there are different responsibilities and activities linked to curating, such as collecting, arrangement, contextualization, background research, artist communication, writing texts, and so on. This panel addresses questions such as: in which of the fields could AI become a supportive tool with its potential access to vast amounts of data? Where could this be helpful, where would it create random output? Can humans also learn from the way AI approaches art and how it selects and arranges? Where should we reconsider relations between human and AI, and where could data become a curatorial task?
From the perspectives of visual arts and music, we will look into the field and speak about potentials, challenges, and problems of applying AI to curatorial tasks.
KI und Kuratieren
Kuratieren scheint oft eine unsichtbare Praxis zu sein, auch wenn wir ihre Auswirkungen erleben. Vor allem durch Musikempfehlungen in Wiedergabelisten oder die Empfehlung von Bildern und Videos wissen wir, dass nicht nur Menschen nach Vorlieben oder anderen Kategorien auswählen können – KI ist bei diesen Aufgaben oft besser und origineller.
Je nach Bereich gibt es unterschiedliche Aufgaben und Tätigkeiten, die mit Kuratieren verbunden sind, z. B. das Sammeln, Arrangieren, Kontextualisieren, Hintergrundrecherche, Künstlerkommunikation, Verfassen von Texten usw. Dieses Panel befasst sich mit Fragen wie: In welchen Bereichen könnte KI mit ihrem potenziellen Zugang zu großen Datenmengen ein unterstützendes Werkzeug werden? Wo könnte dies hilfreich sein, wo würde es zu willkürlichem Output führen? Kann der Mensch auch von der Art und Weise lernen, wie KI an Kunst herangeht und wie sie auswählt und arrangiert? Wo sollten wir die Beziehungen zwischen Mensch und KI neu denken, und wo könnten Daten zu einer kuratorischen Aufgabe werden?
Aus der Perspektive von bildender Kunst und Musik diskutieren wir Potenziale, Herausforderungen und Probleme der Anwendung von KI auf kuratorische Aufgaben.
Intelligent imaging
Technologies and use cases of intelligent imaging are manifold in the field of health research. From the analysis of single cells in genetic sequencing for a more precise understanding of (novel) disease entities such as COVID-19 to fostering planetary health, AI-based analysis methods offer great promise in molecular biology and medical research. In the fishbowl discussion, we would like to take a microscopic look at these opportunities and talk about the conditions under which they can develop to their full potential.
Intelligente Bildverarbeitung
Technologien und Anwendungsbereiche intelligenter Bildverarbeitung umfassen allein in der Gesundheitsforschung eine enorme Spannweite. Von der Erforschung einzelner Zellen im Genetic Sequencing für ein präsizeres Verständnis von (neuartigen) Krankheitsbildern wie COVID-19 bis hin zur Förderung der Planetary Health bieten KI-basierte Analysemethoden in der molekularbiologischen und medizinischen Forschung große Potenziale. In der Fishbowl-Diskussion möchten wir diese Potenziale unter die mikroskopische Lupe nehmen und darüber sprechen, unter welchen digitalen Rahmenbedingungen sie sich voll entfalten können.
Digital law and justice
AI will kill us all – this seems to be an unlikely scenario but few attempts have been made to regulate the potential harm caused by the impetuous use of AI systems in almost every facet of our lives. Digital, algorithmic systems generalize and simplify complex, chronic and historical problems into zeros and ones – a strategy that is prone to biases and social injustice. The question arises how to protect rights like freedom of expression, (data) privacy or self-determination in a system that grows increasingly reliant on AI-based applications? While the US has proposed the Algorithmic Accountability Act and the EU the Artificial Intelligence Act various questions arise: are these actions sufficient to counteract injustices and prejudices caused by AI systems? Will there be a global consensus on how AI can and should be regulated? Is an ethically and socially just use of AI even possible?
Digitales Recht und Gerechtigkeit
KI wird uns alle umbringen – das scheint ein unwahrscheinliches Szenario zu sein, aber es wurden nur wenige Versuche unternommen, den potenziellen Schaden zu regulieren, der durch den unbedachten Einsatz von KI-Systemen in fast allen Bereichen unseres Lebens entsteht. Algorithmische Systeme verallgemeinern und vereinfachen komplexe, chronische und historische Probleme zu Nullen und Einsen – eine Strategie, die anfällig für Fehler und soziale Ungerechtigkeit ist. Es stellt sich die Frage, wie das Recht auf freie Meinungsäußerung, (Daten-)Privatsphäre oder Selbstbestimmung in einem System geschützt werden können, das immer stärker von KI-Anwendungen abhängig wird. Obwohl die USA den Algorithmic Accountability Act und die EU den Artificial Intelligence Act vorgestellt haben, stellen sich verschiedene Fragen: Reichen diese Maßnahmen aus, um Ungerechtigkeiten und Vorurteilen, die durch KI-Systeme hervorgerufen werden, entgegenzuwirken? Wird es einen globalen Konsens darüber geben, wie KI reguliert werden kann und sollte? Ist ein ethisch und sozial gerechter Einsatz von Künstlicher Intelligenz überhaupt möglich?
AI Newcomer 2023 Award
Not only established AI experts are involved in the current discussion about the future of AI. Many "AI newcomers" are also shaping the theoretical and practical direction of AI from their respective disciplines with new ideas. We are looking for precisely these thought leaders! With this award, we want to honour a total of ten outstanding researchers at universities, research institutions, associations, foundations and companies who are already promoting the development of AI in Germany with their innovative ideas.
KI-Newcomer*innen 2023 Auszeichnung
An der aktuellen Diskussion um die Zukunft der KI beteiligen sich längst nicht nur etablierte KI-Expert*innen. Auch viele "KI-Newcomers" gestalten die theoretische und praktische Ausrichtung von KI aus ihren jeweiligen Disziplinen heraus mit neuen Ideen mit. Genau diese Vordenker*innen suchen wir! Mit der Auszeichnung wollen wir insgesamt zehn herausragende Forscher*innen in Hochschulen, Forschungseinrichtungen, Verbänden sowie Stiftungen und Unternehmen würdigen, die mit ihren innovativen Ideen die Entwicklung der KI in Deutschland schon jetzt vorantreiben.
The KI-Camp organized by the German Federal Ministry of Education and Research (BMBF) and the German Informatics Society. (GI) brings together AI talents and renowned AI experts from all over the world. In interactive discussion rounds, lecture sessions, and hands-on formats, the free convention addresses future transdisciplinary issues from the fields of society, sustainability, health, art, and niche phenomena in AI research.
Homes as hybrid (human-robot) ecologies
From the 2000s, “domestic robots” have started to move from science fiction to our homes. Robotics has engaged in integrating, into our domestic environments, a wide range of platforms, spanning from robotic furniture to robotic agents co-inhabiting our domestic spaces as “social partners”. This workshop proposes a philosophical exploration of the ongoing process of “domestication of robots”. The goal is twofold: clarifying what models of the human mind, and of the mind-technology relation, drive research on, and implementation of, domestic robots; exploring how these models can shape the robotization of domestic environments, and thus impact human domestic and social life.
Wohnräume als hybride (Mensch-Roboter-)Ökologien
Seit den 2000er Jahren haben "Haushaltsroboter" den Weg aus der Science-Fiction in unsere Häuser gefunden. Die Robotik hat von Robotermöbeln bis hin zu Roboteragenten eine breite Auswahl an Systemen in unsere häuslichen Umgebungen integriert, die diese als "Sozialpartner" mitbewohnen. Dieser Workshop bietet eine philosophische Untersuchung des laufenden Prozesses der "Domestizierung von Robotern" an. Das Ziel ist ein zweifaches: zu klären, welche Modelle des menschlichen Geistes und der Beziehung zwischen Geist und Technologie die Forschung und die Implementierung von Haushaltsrobotern vorantreiben und zu erforschen, wie diese Modelle die Robotisierung von Wohnräumen gestalten und somit das häusliche und soziale Leben der Menschen beeinflussen können.
To access detailed descriptions of each program item, we kindly ask that you hover your mouse over the respective titles. Please note that the descriptions are available in both English and German.
Um detaillierte Beschreibungen zu jedem Programmpunkt anzuzeigen, bitten wir Sie, mit der Maus über die entsprechenden Titel zu fahren. Bitte beachten Sie, dass die Beschreibungen auf Englisch und Deutsch verfügbar sind.
Ryan S. Jeffery
8:00 min, 2023
Anatola Araba
13:06 min, 2021
Apparatus 22
5:00 min
Jake Elwes
5:23, 2022 version, ft. music by Breaka
(original version: 2016, digital video, 12 minutes)
Lawrence Lek
12:00 min