Künstliche Intelligenz mit Tiefgang – Deep Learning, Sprachmodelle und die Frage nach dem Bewusstsein (Folge 29)
In der finalen Folge unserer Mini-Serie zu »Künstlicher Intelligenz (KI) und Statistik« wird es tiefgründig – im wahrsten Sinne des Wortes. Unser Podcast-Team – bestehend aus Esther Packullat, Sascha Feth und Jochen Fiedler – beschäftigt sich mit den großen Sprachmodellen wie GPT-4, Llama oder Gemini.Wir werfen einen Blick hinter die Kulissen und diskutieren spannende Fragen wie:• Was macht diese Modelle so leistungsfähig?• Wie funktionieren große Sprachmodelle eigentlich?• Was heißt Deep Learning – und was unterscheidet es von Shallow Learning?• Wie arbeiten Neuronale Netze – und warum spielt ihre Topologie eine entscheidende Rolle?• Inwiefern lassen sich die Fähigkeiten großer KI-Modelle wirklich vorhersagen?• Warum ist Deep Learning mehr als nur angewandte Statistik?• Was ist Emergenz – und warum überrascht uns KI manchmal selbst?• Und schließlich die große Frage: Werden KI-Systeme eines Tages ein Bewusstsein entwickeln? Was würde das bedeuten?Unsere beiden Statistik-Kollegen sind sich einig: Die Entwicklung geht in eine spannende Richtung – und wir stehen erst am Anfang.Buchtipps aus der Folge:Metzinger, Thomas (2014). Der Ego-Tunnel: Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Piper Verlag. Ramakrishnan, Venkatraman (2024). Warum wir sterben: die neue Wissenschaft des Alterns und die Suche nach dem ewigen Leben. Klett-Cotta. Gestalte unseren Podcast mit!Du hast ein Zahlenphänomen entdeckt, das wir besprechen sollen? Oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann melde Dich gerne über
[email protected] bei uns!