Autonomie & Algorithmen – Details, episodes & analysis
Podcast details
Technical and general information from the podcast's RSS feed.

Autonomie & Algorithmen
Christiane Attig, Benjamin Paaßen
Frequency: 1 episode/34d. Total Eps: 9

Recent rankings
Latest chart positions across Apple Podcasts and Spotify rankings.
Apple Podcasts
🇩🇪 Germany - science
30/01/2025#85🇩🇪 Germany - science
29/10/2024#93🇩🇪 Germany - science
28/10/2024#86🇩🇪 Germany - science
27/10/2024#70🇩🇪 Germany - science
25/10/2024#88🇩🇪 Germany - science
24/10/2024#71🇩🇪 Germany - science
23/10/2024#95🇩🇪 Germany - science
22/10/2024#86🇩🇪 Germany - science
21/10/2024#70🇩🇪 Germany - science
20/10/2024#67
Spotify
No recent rankings available
Shared links between episodes and podcasts
Links found in episode descriptions and other podcasts that share them.
See allRSS feed quality and score
Technical evaluation of the podcast's RSS feed quality and structure.
See allScore global : 74%
Publication history
Monthly episode publishing history over the past years.
Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.
Episode 6
vendredi 30 août 2024 • Duration 01:08:56
Zur Umfrage geht es hier.
+++
Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns!
+++
Katharina Rohlfing ist Professorin für Psycholinguistik an der Universität Paderborn und Sprecherin des Sonderforschungsbereich/Transregio 318 "Constructing Explainability", in dem Forscher*innen Wege erforschen, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre Forschungsschwerpunkte u.a. Multimodale Interaktion, frühkindlicher Spracherwerb und Gedächtnisprozesse und Kind-Roboter Interaktion.
Tim Schrills ist Wissenschaftlicher Mitarbeiter an der Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck. In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin.
+++
Linkliste
- Madsen & Gregor (2000), Measuring Human-Computer Trust.
- Jian et al. (2010), Foundations for an Empirically Determined Scale of Trust in Automated Systems. International Journal of Cognitive Ergonomics.
- Bartlett & McCarley (2017), Benchmarking Aided Decision Making in a Signal Detection Task. Human Factors.
- Schrills (2023), Erklärbare KI. In: Künstliche Intelligenz in öffentlichen Verwaltungen.
- Chromik et al. (2021), I Think I Get Your Point, AI! The Illusion of Explanatory Depth in Explainable AI. Proceedings of the 26th International Conference on Intelligent User Interfaces.
- Schrills & Franke (2023), How Do Users Experience Traceability of AI Systems? Examining Subjective Information Processing Awareness in Automated Insulin Delivery (AID) Systems. ACM Transactions on Interactive Intelligent Systems.
- Yacobi et al. (2022), “If it didn’t happen, why would I change my decision?”: How Judges Respond to Counterfactual Explanations for the Public Safety Assessment. Proceedings of the Tenth AAAI Conference on Human Computation and Crowdsourcing.
- Rohlfing et al. (2020), Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems. IEEE Transactions on Cognitive and Developmental Systems.
- Buschmeier et al. (2023), Forms of Understanding of XAI-Explanations. arXiv.
- EU AI Act: Einheitliche Regeln für Künstliche Intelligenz in der EU
- Häntschel & Schrills (2024), Der EU AI Act und seine Auswirkungen auf Human-Computer Interaction. (YouTube-Video)
- Deck et al. (2024), A Critical Survey on Fairness Benefits of Explainable AI. Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency.
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
Termin bei Dr. med. AI: Potenziale von Künstlicher Intelligenz im Gesundheitswesen.
Episode 5
vendredi 2 août 2024 • Duration 01:38:01
+++
Susanne Gaube ist Assistenzprofessorin für Human Factors in Healthcare an der Global Business School for Health (GBSH) am University College London. Sie wurde an der Uni Regensburg zu den psychologischen Faktoren, die das Handhygieneverhalten im Krankenhaus beeinflussen, promoviert. Nach ihrer Promotion, für die sie den Max-Weber-Preis der Bayerischen Akademie der Wissenschaften erhielt, hat sie auch auf den Bereich Mensch-KI-Interaktion im Gesundheitssystem fokussiert. Susanne Gaubes primäre Forschung dreht sich somit um das Verstehen und Optimieren von Faktoren, die die Mensch-KI-Interaktion im Gesundheitswesen beeinflussen.
Thomas Wittenberg ist Wissenschaftlicher Leiter am Fraunhofer-Institut für Integrierte Schaltungen in Erlangen und außerdem Projekt- und Arbeitsgruppenleiter an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Seine Forschungsthemen umfassen unter anderem Intelligente Bildanalyse in der Endoskopie, Digitale Pathologie und Mammographie.
+++
Linkliste
- Ada: Künstliche Intelligenz als Diagnosehilfe
- Emotion AI: Multimodale Emotionsanalyse (Projekt am Fraunhofer IIS)
- Medizinische Messtechnik (Forschungsbereich am Fraunhofer IIS)
- Detektion von Polypen und Läsionen während der Koloskopie (Projekt am Fraunhofer IIS)
- Technikakzeptanzmodelle
- Cecil et al. (2024), Einflussfaktoren auf die Nutzung KI-gestützter Technologien in der psychischen Gesundheitsversorgung. In Klein et al., Künstliche Intelligenz im Healthcare-Sektor.
- Klare et al. (2019). Automated polyp detection in the colorectum: a prospective study. Gastrointestinal Endoscopy.
- Dinge et al., (2024). Predictors of Healthcare Practitioners' Intention to Use AI-Enabled Clinical Decision Support Systems (AI-CDSSs): A Meta-Analysis Based on the Universal Theory of Acceptance and Use of Technology (UTAUT). JMIR Preprints.
- Hummelsberger et al. (2023). Insights on the Current State and Future Outlook of AI in Health Care: Expert Interview Study. JMIR AI.
- Lapuschkin et al. (2019). Unmasking Clever Hans predictors and assessing what machines really learn. Nature Communications (Studie zur Erkennung von Pferdefotos anhand der Quellen-URL)
- Zulassung, Zertifizierung und CE-Kennzeichnung von Medizinprodukten
- EU-Gesetz zur Künstlichen Intelligenz
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
Kann KI-Kunst wirklich Kunst sein? Über Bildgeneratoren, Kopien und Kreativität.
Episode 4
vendredi 28 juin 2024 • Duration 01:34:12
+++
Amrei Bahr ist Philosophin mit den Themenschwerpunkten Angewandte Ethik, Artefaktphilosophie, Ästhetik und Technikphilosophie. Seit 2022 ist sie Juniorprofessorin für Philosophie der Technik & Information an der Universität Stuttgart. 2017 wurde sie an der Westfälischen Wilhelms-Universität Münster über die moralischen Rechte von Urheber*innen an ihren geistigen Schöpfungen promoviert. Amrei Bahr beschäftigt sich außerdem mit Fragen der Gerechtigkeit im Wissenschaftssystem; so hat sie gemeinsam mit Kristin Eichhorn und Sebastian Kubon im Juni 2021 die Twitter-Aktion #IchBinHanna initiiert.
Danny Frede ist freier Künstler und Grafiker und nutzt Malerei, digitale Kunst und Fotografie, um digitale Prozesse und analoges Kunstschaffen miteinander zu verbinden. Seine Werke drehen sich um die digitale Revolution, Fragen des Konsums sowie Probleme der Automatisierung. Darüber hinaus produziert er den Podcast "Ostkinder 80/82", der mit dem CIVIS Medienpreis 2024 ausgezeichnet wurde.
+++
Linkliste
- Dirk von Gehlen: Kunst, KI und die Kopie und Mashup – Lob der Kopie
- Walter Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit
- Danny Frede: Digitale Aura, Robotonismus, Junger Mann mit Hut
- Google Deep Dream
- Midjourney
- Adobe Firefly
- Imagenet
- Positionspapier dre Kreativwirtschaft: KI aber fair
- Jiang et al. (2023): AI Art and its Impact on Artists
- Models all the way down (große Klickempfehlung!)
- Shan et al. (2023): Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models
- Paaßen et al. (2022): A conceptual graph-based model of creativity in learning
- Lisa Jones: Appropriation and Derogation: When Is It Wrong to Appropriate? (in erwähntem Sammelband The Aesthetics and Ethics of Copying)
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
"ChatGPT würde eher links wählen": Generative KI im Superwahljahr.
Episode 3
lundi 3 juin 2024 • Duration 18:38
+++
Linkliste
- heute journal über Selbstregulierung von KI-Tech-Unternehmen (ab Minute 17)
- Algorithmwatch: OpenAI bricht eigene Regeln: Generatoren produzieren täuschende KI-Bilder zur EU-Wahl
- re:publica 2024: Wie Wissenschaft wirkt – KI im Factchecking
- Wahl-O-Mat zur Europawahl 2024
- LinkedIn-Beitrag von Felix Beilharz
- BR24: Wahl-O-Mat zur Europawahl: ChatGPT würde eher links wählen
- Benjamins ChatGPT-Test des Wahl-O-Mats
- Focus online: Alle KIs wählen die gleiche Partei - dafür kann es zwei Gründe geben
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
Sind Sprachmodelle die neuen Taschenrechner? Wie KI die Lernwelt transformiert.
Episode 2
vendredi 31 mai 2024 • Duration 01:27:55
+++
Niels Pinkwart ist ein früher Pionier der KI für die Bildung in Deutschland. Schon 2005 hat er über kollaborative Modellierungssysteme in Bildungskontexten an der Universität Duisburg promoviert. Seit 2013 ist er Professor für Didaktik der Informatik / Informatik und Gesellschaft sowie seit 2021 Vizepräsident für Studium und Lehre an der Humboldt-Universität zu Berlin. Außerdem ist Niels Leiter des Educational Technology Lab am DFKI Berlin.
Stefanie Kaste ist stellvertretende Geschäftsführerin der Initiative D21. D21 ist Deutschlands größtes gemeinnütziges Netzwerk für die Digitale Gesellschaft, bestehend aus Wirtschaft, Politik, Wissenschaft und Zivilgesellschaft.
Timm Lutter leitet die Arbeitsgruppe Digitale Bildung und ist Präsidiumsmitglied der Initiative D21. Außerdem leitet er die Unternehmenskommunikation beim Bildungsmedienanbieter Cornelsen.
+++
Linkliste
- PISA-Studien
- OECD-Lernkompass
- Detektor von OpenAI zur Unterscheidung von KI-generierten und durch Menschen verfassten Texten
- Jugendstudie der Vodafone-Stiftung zum Einsatz von Künstlicher Intelligenz an Schulen
- Duden Learnattack
- Rüdian et al. (2023): Sprachenlernen per KI. Möglichkeiten und Grenzen in der Praxis.
- mmb Institut & DFKI (2023). Schule und KI – Ein praxisorientierter Leitfaden.
- Liu et al. (2024): Datasets for Large Language Models: A Comprehensive Survey.
- D21 Digital-Index 2023/24
- Jahn (2024): Resilienz im digitalen Wandel – auch eine Frage der digitalen Kompetenzen.
- Europäische Kommission (2021): Europas digitale Dekade – digitale Ziele für 2030
- KI-Campus
- Netzwerk „KI und digitale Autonomie in Wissenschaft und Bildung“
- Carbonell (1970). AI in CAI: An Artificial-Intelligence Approach to Computer-Assisted Instruction.
- Kulik & Fletcher (2016). Effectiveness of Intelligent Tutoring Systems: A Meta-Analytic Review.
- Blanc et al. (2023): Was wirkt? Eine Literaturstudie zur Wirksamkeit von Systemeigenschaften in Mathematik-Lernumgebungen.
- Koedinger & Anderson (1993): Effective Use of Intelligent Software in High School Math Classrooms.
- Cornelsen.ai: Die KI-Toolbox
- IMPACT-Projekt (Implementierung von KI-basiertem Feedback und Assessment mit Trusted Learning Analytics in Hochschulen)
- AI-SKILLS-Projekt (Anwendungsorientierte Infrastruktur für KI-Communities in Lehr-Lern-Settings)
- EU Artificial Intelligence Act
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
Von der Black Box zur Glass Box: Worum es hier geht und wer wir sind.
Episode 1
vendredi 26 avril 2024 • Duration 19:46
Freiheit, Selbstbestimmung, Autonomie – das sind Begriffe, die man in aktuellen gesellschaftlichen und wissenschaftlichen Debatten rund um Künstliche Intelligenz immer wieder hört. In unserem Podcast möchten wir durch Gespräche mit Expert*innen aus der KI-Forschung ganz konkrete KI-Systeme beleuchten, um euch mit dem notwendigen Wissen auszustatten, selbstbestimmte Entscheidungen in Bezug auf die Nutzung von KI-Systemen treffen zu können.
+++
In dieser Episode lernt ihr uns kennen: Christiane Attig und Benjamin Paaßen.
Christiane ist Ingenieurpsychologin und beschäftigt sich mit der subjektiven Wahrnehmung von KI-Systemen. Das bedeutet beispielsweise: Habe ich als Nutzerin in der Interaktion mit einem KI-System das Gefühl, einen Partner auf Augenhöhe zu haben? Kann ich die Grenzen des Systems nachvollziehen, während ich damit umgehe?
- Christianes Profil auf den Seiten der Universität zu Lübeck
- Christianes persönliche Website
- Christiane bei Bluesky
- Christiane bei Mastodon
- Benjamins Profil auf den Seiten der Universität Bielefeld
- Benjamins persönliche Website
- Benjamin bei Bluesky
- Benjamin bei Mastodon
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
Gefühle im Datenstrom? Einsatz und Grenzen der Emotionserkennung durch KI.
Episode 7
vendredi 27 septembre 2024 • Duration 02:07:51
Zur Umfrage geht es hier.
+++
Der empathische Roboter, der anhand von Mimik, Stimme oder Körperhaltung erkennt, wie man sich fühlt, um wahlweise aufzuheitern, zu loben, oder emotionale Unterstützung anzubieten – klingt sehr nach Science Fiction, oder? Tatsächlich wurden im Rahmen des sogenannten Affective Computing in den letzten Jahren enorme Fortschritte erzielt, sodass diese Vorstellung keine reine Zukunftsmusik mehr ist. KI-basierte Systeme zur Emotionsdetektion sind jedoch komplex und umstritten. Was können sie wirklich messen? Sind es wirklich Stimmungen, Emotionen oder lediglich beobachtbare Gefühlsausdrücke? Und darüber hinaus: wollen wir maschinelle Systeme, die uns anhand von Daten emotionale Zustände zuschreiben?
+++
Jana Bressem ist Linguistin und Wissenschaftliche Mitarbeiterin an der Professur für Germanistische Sprachwissenschaft, Semiotik und Multimodale Kommunikation an der Technischen Universität Chemnitz. Ihre Forschungsschwerpunkte sind u.a. Multimodalität, typologische Gestenforschung, Sprache und Kognition sowie Mensch und Technik. Im Wissenschaftspodcast “Talking Bodies” spricht Jana gemeinsam mit Silva Ladewig, Sprachwissenschaftlerin von der Uni Göttingen, zu Themen der Sprache, Gestik und Kommunikation.
Björn Schuller ist Professor für Health Informatics an der Technischen Universität München sowie Professor für Künstliche Intelligenz am Imperial College London. Darüber hinaus ist er Mitbegründer, CEO und derzeitiger Chief Scientific Officer der audEERING GmbH – einem Start-up im Bereich intelligenter Audiotechnik. Björns Forschungsschwerpunkte sind u.a. Maschinelles Lernen, automatische Spracherkennung und Affective Computing.
+++
Linkliste
- Emotionstheorien
- Ekman & Friesen: Facial Action Coding System (FACS)
- Das Emotionswörterbuch für das FACS: "EMFACS" von Friesen & Ekman
- Feldman Barrett (2006), Are emotions natural kinds? Perspectives on Psychological Science.
- Feldman Barrett et al. (2019), Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest.
- Gendron et al. (2014), Perceptions of emotion from facial expressions are not culturally universal: Evidence from a remote culture. Emotion.
- „Whisper“ von OpenAI
- Plutchiks "Emotion Wheel"
- Sander et al. (2005), A systems approach to appraisal mechanisms in emotion. Neural Networks.
- Wagner et al. (2022), Dawn of the transformer era in speech emotion recognition: Closing the valence gap.
- Studie am KIT: AI Recognizes Athletes’ Emotions.
- Mehrabian & Weiner (1967), Decoding of inconsistent communications. Journal of Personality and Social Psychology.
- Schuller (2006), Automatische Emotionserkennung aus sprachlicher und manueller Interaktion. Dissertation.
- Buolamwini & Gebru (2018), Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research.
- Halberstadt et al. (2018), Preservice teachers’ racialized emotion recognition, anger bias, and hostility attributions. Contemporary Educational Psychology.
- Talking Bodies Folge # 33 – Zeigt der Körper an, wenn wir lügen?
- Bond & DePaulo (2006), Accuracy of deception judgments. Personality and Social Psychology Review.
- EMOBIO, Fraunhofer: KI-gestützte Emotionserkennung im Fahrzeug aus physiologischen Daten.
- Q for Sales-Software zur Emotionsanalyse von Kund*innen
- EU-Projekt iBorderCtrl: Kommt der Lügendetektor oder kommt er nicht?
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
ChatGPT als Co-Autor? KI beim wissenschaftlichen Schreiben.
Episode 9
vendredi 24 janvier 2025 • Duration 01:07:42
+++
Dzifa Vode ist Mitarbeiterin des Schreibzentrums der Technischen Hochschule Nürnberg. Zur Zeit entwickelt sie dort mit dem Online Writing Lab eine freie Bildungsumgebung für Studierende, die wissenschaftlich schreiben wollen oder müssen. Als Schreibwissenschaftlerin forscht und lehrt sie im Bereich des wissenschaftlichen Schreibens – mit und ohne künstliche Intelligenz. Sie organisiert außerdem Schreibretreats und coacht Wissenschaftler*innen in ihren Schreibprozessen.
+++
Linkliste
- Virtuelles Kompetenzzentrum: Künstliche Intelligenz und wissenschaftliches Arbeiten
- Reflexionsinstrument für Lehrende
- Zohery (2023), ChatGPT in Academic Writing and Publishing: A Comprehensive Guide.
- Kostikova et al. (2022), Fine-Grained Detection of Solidarity for Women and Migrants in 155 Years of German Parliamentary Debates. arXiv.
- Barnum et al. (2024), Large Language Models based on historical text could offer informative tools for behavioral science. PNAS.
- Alahdab (2024), Potential impact of large language models on academic writing. BMJ Evidence-Based Medicine.
- Bin-Nashwan et al. (2023), Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society.
- Leung et al. (2023), Best Practices for Using AI Tools as an Author, Peer Reviewer, or Editor. Journal of Medical Internet Research.
- Liang et al. (2024), Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews. arXiv.
- Preiß et al.,(2023). ChatGPT and Me. Erste Ergebnisse der quantitativen Auswertung einer Umfrage über die Lebensrealität mit generativer KI an der Universität Hamburg. Digital and Data Literacy in Teaching Lab. Universität Hamburg.
- Parasuraman & Riley (1997), Humans and Automation: Use, Misuse, Disuse, Abuse. Human Factors.
- Kobak et al. (2024), Delving into ChatGPT usage in academic writing through excess vocabulary. arXiv.
- Geng & Trotta (2024), Is ChatGPT Transforming Academics' Writing Style? arXiv.
- Gottschling et al. (2024). Nutzung von KI-Tools durch Studierende. Eine exemplarische Untersuchung studentischer Nutzungsszenarien. die hochschullehre.
- Hwang et al. (2024). Is ChatGPT a "Fire of Prometheus" for Non-Native English-Speaking Researchers in Academic Writing? Korean Journal of Radiology.
- DFG (2023), Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle.
- Limburg et. al (2023), Zehn Thesen zur Zukunft des Schreibens in der Wissenschaft.
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
Von menschlicher und künstlicher Intelligenz: Wo stehen wir auf dem Weg zur starken KI?
Episode 8
vendredi 13 décembre 2024 • Duration 45:17
+++
Linkliste
- Emmert-Streib, F. (2024). Is ChatGPT the way toward artificial general intelligence? Discover Artificial Intelligence 4, 32.
- Nick Boström: The Paperclip Maximizer
- Noam Chomsky: The False Promise of ChatGPT
- Ullman, T. (2023): Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks. ArXiv.
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.