Weizenbaum Discussion Paper
Dauerhafte URI für die Sammlung
In den Veröffentlichungen der Weizenbaum Discussion Paper (vormals: Weizenbaum Series) werden Ergebnisse aus der laufenden Forschung des Instituts vorgestellt. Die Schriftreihe ist offen für unterschiedliche Publikationsformate wie Monografien, Technical Reports, Preprints, Arbeitspapiere und viele mehr.
Listen
Auflistung Weizenbaum Discussion Paper nach Forschungsbereichen "Weizenbaum Digital Science Center"
Gerade angezeigt 1 - 5 von 5
Treffer pro Seite
Sortieroptionen
- ItemBig Tech kontra Gemeinwohl. Die Pathologien des Technologiewettlaufs um Künstliche Intelligenz(Weizenbaum Institute, 2025-06) Butollo, Florian; Görnemann, EstherDer Technologiewettlauf um Künstliche Intelligenz hat Pathologien hervorgebracht, die durch die Dominanz weniger mächtiger Akteure und starke Informations- und Machtasymmetrien geprägt sind. Plattformunternehmen agieren als Gatekeeper für digitale Infrastrukturen und Wissen. Ihr umfassender Zugang zu Daten und Rechenkapazitäten verstärkt im Wettlauf um KI-Marktführerschaft die Machtkonzentration bei Tech-Konzernen und benachteiligt kleinere Akteure. Wohlstand und technologische Macht konzentrieren sich in den Händen weniger, während viele von den Chancen der KI-gestützten Wertschöpfung ausgeschlossen bleiben. Globale und soziale Disparitäten verschärfen sich. Der breite Einsatz starker KI in beruflichen und privaten Kontexten wird zudem mit rasant steigendem Verbrauch von Energie, Wasser und nicht erneuerbaren Ressourcen verbunden sein, wenn Lösungen zur Ressourcenschonung nicht konsequent mitgedacht werden. Die primären Ziele der KI-Entwicklung sind jedoch Marktbeherrschung und Profitmaximierung – ökologische, soziale und ethische Gesichtspunkte werden zurückgestellt. Dies verhindert eine konsequent gemeinwohlorientierte Ausrichtung von KI, die bei einer so weitreichenden technologischen Umwälzung jedoch notwendig ist. Digitale Infrastrukturen, gerade im Bereich KI, sind von technologischen Abhängigkeiten geprägt. In geopolitisch volatilen Zeiten verschärfen sich die damit einhergehenden Risiken, denn politische Akteure haben die Möglichkeit, den Zugang zu GKI zu beschränken oder an Bedingungen zu knüpfen. Darüber hinaus können Sprachmodelle gezielt eingesetzt werden, um öffentliche Diskurse zu beeinflussen. Sprachmodelle prägen, was sichtbar und sagbar ist, welches Wissen verbreitet wird und wie es bewertet wird. Auf welche Weise Modelle dies konkret tun, spiegelt auch die politischen Neigungen ihrer Entwickler wider. Hieraus entsteht Manipulationspotenzial. Es wird offensichtlich, dass es an einer demokratischen Aushandlung über den Einsatz generativer KI mangelt.
- ItemBig Tech Versus the Common Good. Pathologies of the Technology Race for Artificial Intelligence(Weizenbaum Institute, 2025-06) Butollo, Florian; Görnemann, EstherThe technology race for artificial intelligence has produced pathologies that are characterized by the dominance of a handful of powerful players and strong information and power asymmetries. Platform companies act as gatekeepers for digital infrastructures and knowledge. In the race for AI market leadership, their extensive access to data and computing capacities increases the concentration of power among tech corporations and puts smaller players at a disadvantage. Wealth and technological power are concentrated in the hands of a few, while many remain excluded from the opportunities of AI-supported value creation. Global and social disparities are widening. A widespread use of strong AI in professional and private contexts will also be associated with rapidly increasing consumption of energy, water and non-renewable resources unless solutions to conserve resources are consistently taken into account. However, the primary goals of AI development are market dominance and profit maximization: ecological, social and ethical aspects are put on the back burner. This prevents AI from being consistently oriented towards the common good, a goal which is surely necessary for such a far-reaching technological revolution. Digital infrastructures, especially in the field of AI, are characterized by technological dependencies. In geopolitically volatile times, the associated risks are exacerbated, as political actors have the ability to restrict access to essential infrastructures or to attach conditions to them. In addition, language models can be used in a targeted manner to influence public discourse. Language models shape what is visible and sayable, what knowledge is disseminated and how it is evaluated. The specific way in which models do this also reflects the political inclinations of their developers. This creates the potential for manipulation. It is clear that there is a lack of democratic negotiation on the use of generative AI.
- ItemEthics of Data Work. Principles for Academic Data Work Requesters(Weizenbaum Institute, 2025-06) Yang, Tianling; Strippel, Christian; Keiner, Alexandra; Baker, Dylan; Chávez, Alexis; Kauffman, Krystal; Pohl, Marc; Sinders, Caroline; Miceli, MilagrosThe growing use of machine learning (ML) in academic research has led to a rising demand for large, labeled datasets. While the field initially relied on the labor of students and research assistants to label data, as models grew larger and more complex, there was a shift towards relying on large-scale, low-cost platforms like Amazon Mechanical Turk (MTurk) to label data at scale. However, this shift comes with serious ethical concerns. Now part of a massive industry, many data work companies exploit workers, leaving many workers facing low wages and precarious working conditions, with little institutional oversight or protection. Despite the centrality of this labor to modern research, ethical codes and guidelines from academic societies rarely address the implications of outsourcing data work to platform-based workers. This paper advocates for the development of research ethics standards that ensure fair and responsible collaboration with data workers. We begin by defining the concept of “data work” and assessing how current ethical frameworks address it. We then highlight ongoing initiatives aimed at improving ethical regulation. Based on two focus groups and two expert workshops held at the Weizenbaum Institute in 2024, we propose a set of principles for academic data work requesters to guide ethical engagement with platform-based workers. Finally, we outline future steps for integrating these principles into scientific ethical codes and day-to-day research practices.
- ItemMultidimensional Measurement of Mobile Media Use(Weizenbaum Institute, 2021) Toth, RolandJust like all types of media use, mobile media use is usually measured using retrospective, self-reported indications of quantity in the form of duration and frequency. This is not only problematic due to the fact that people misjudge their own use to a great extent, but also because theoretical approaches predominantly suggest that mere contact is not sufficient for the description of media use. This especially holds for mobile media use, as specific contact episodes are not easily distinguishable anymore due to their short duration and high frequency. Mobile media use is rather characterized by circumstances surrounding the contact itself - they are used for countless purposes, in a habitual manner, and in various situations. In this paper, I am proposing a renewed, multidimensional measure of mobile media use that takes into account these characteristics in addition to well-known measures of quantity and suggest methods for assessing its convergent and content validity.
- ItemWas macht interdisziplinäre Teams erfolgreich?(Weizenbaum Institute, 2024) Suckow, Silvio; Schmitt, Josephine B.; Saba, Sara; Beese, Kim; Staudte, Maria; Wenninger, AndreasInterdisziplinäre Forschung (IDR) gilt in Themengebieten wie der digitalen Transformation als Schlüssel zur Lösung komplexer gesellschaftlicher Probleme. Trotz ihres Potenzials für innovative Ergebnisse, kollidieren IDR-Anreize besonders in der Teamarbeit oft mit den traditionell-disziplinären Strukturen des Wissenschaftssystems. Das stellt vor allem für Nachwuchsforschende ein Karriererisiko dar. Interdisziplinäre Teams sind häufig mit spezifischen Herausforderungen wie langwierigen Aushandlungsprozessen und einem geringeren Commitment zu Projektzielen konfrontiert. Es fehlt eine systematische Evaluation der Qualität er folgreicher IDR-Teams, um Lernprozesse zu fördern und interdisziplinäre Karrierewege besser als bisher zu fördern. Diese Lücke wollen wir am Beispiel des interdisziplinären Feldes der Digitalisierungsforschung füllen. Basierend auf drei Workshops mit 25 Forschenden der Digitalisierungsforschung sowie einer intensiven Auseinandersetzung mit bestehender Literatur, schlagen wir einen Fragebogen zur Selbstevaluation interdisziplinärer Teams vor. Der Fragebogen soll sowohl das Selbstlernen einzelner Teams als auch das des interdisziplinären Feldes insgesamt fördern.