Weizenbaum Publikationen
Dauerhafte URI für den Bereich
Listen
Auflistung Weizenbaum Publikationen nach Forschungsgruppen "Forschungssynthesen"
Gerade angezeigt 1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- ItemBig Tech kontra Gemeinwohl. Die Pathologien des Technologiewettlaufs um Künstliche Intelligenz(Weizenbaum Institute, 2025-06) Butollo, Florian; Görnemann, EstherDer Technologiewettlauf um Künstliche Intelligenz hat Pathologien hervorgebracht, die durch die Dominanz weniger mächtiger Akteure und starke Informations- und Machtasymmetrien geprägt sind. Plattformunternehmen agieren als Gatekeeper für digitale Infrastrukturen und Wissen. Ihr umfassender Zugang zu Daten und Rechenkapazitäten verstärkt im Wettlauf um KI-Marktführerschaft die Machtkonzentration bei Tech-Konzernen und benachteiligt kleinere Akteure. Wohlstand und technologische Macht konzentrieren sich in den Händen weniger, während viele von den Chancen der KI-gestützten Wertschöpfung ausgeschlossen bleiben. Globale und soziale Disparitäten verschärfen sich. Der breite Einsatz starker KI in beruflichen und privaten Kontexten wird zudem mit rasant steigendem Verbrauch von Energie, Wasser und nicht erneuerbaren Ressourcen verbunden sein, wenn Lösungen zur Ressourcenschonung nicht konsequent mitgedacht werden. Die primären Ziele der KI-Entwicklung sind jedoch Marktbeherrschung und Profitmaximierung – ökologische, soziale und ethische Gesichtspunkte werden zurückgestellt. Dies verhindert eine konsequent gemeinwohlorientierte Ausrichtung von KI, die bei einer so weitreichenden technologischen Umwälzung jedoch notwendig ist. Digitale Infrastrukturen, gerade im Bereich KI, sind von technologischen Abhängigkeiten geprägt. In geopolitisch volatilen Zeiten verschärfen sich die damit einhergehenden Risiken, denn politische Akteure haben die Möglichkeit, den Zugang zu GKI zu beschränken oder an Bedingungen zu knüpfen. Darüber hinaus können Sprachmodelle gezielt eingesetzt werden, um öffentliche Diskurse zu beeinflussen. Sprachmodelle prägen, was sichtbar und sagbar ist, welches Wissen verbreitet wird und wie es bewertet wird. Auf welche Weise Modelle dies konkret tun, spiegelt auch die politischen Neigungen ihrer Entwickler wider. Hieraus entsteht Manipulationspotenzial. Es wird offensichtlich, dass es an einer demokratischen Aushandlung über den Einsatz generativer KI mangelt.
- ItemBig Tech Versus the Common Good. Pathologies of the Technology Race for Artificial Intelligence(Weizenbaum Institute, 2025-06) Butollo, Florian; Görnemann, EstherThe technology race for artificial intelligence has produced pathologies that are characterized by the dominance of a handful of powerful players and strong information and power asymmetries. Platform companies act as gatekeepers for digital infrastructures and knowledge. In the race for AI market leadership, their extensive access to data and computing capacities increases the concentration of power among tech corporations and puts smaller players at a disadvantage. Wealth and technological power are concentrated in the hands of a few, while many remain excluded from the opportunities of AI-supported value creation. Global and social disparities are widening. A widespread use of strong AI in professional and private contexts will also be associated with rapidly increasing consumption of energy, water and non-renewable resources unless solutions to conserve resources are consistently taken into account. However, the primary goals of AI development are market dominance and profit maximization: ecological, social and ethical aspects are put on the back burner. This prevents AI from being consistently oriented towards the common good, a goal which is surely necessary for such a far-reaching technological revolution. Digital infrastructures, especially in the field of AI, are characterized by technological dependencies. In geopolitically volatile times, the associated risks are exacerbated, as political actors have the ability to restrict access to essential infrastructures or to attach conditions to them. In addition, language models can be used in a targeted manner to influence public discourse. Language models shape what is visible and sayable, what knowledge is disseminated and how it is evaluated. The specific way in which models do this also reflects the political inclinations of their developers. This creates the potential for manipulation. It is clear that there is a lack of democratic negotiation on the use of generative AI.