{"id":626,"date":"2022-10-29T12:00:04","date_gmt":"2022-10-29T10:00:04","guid":{"rendered":"podlove-2022-10-27t12:05:04+00:00-8eff320157268d3"},"modified":"2022-10-30T13:14:36","modified_gmt":"2022-10-30T12:14:36","slug":"dl031-koennen-computer-malen","status":"publish","type":"podcast","link":"https:\/\/www.datenleben.de\/index.php\/2022\/10\/29\/dl031-koennen-computer-malen\/","title":{"rendered":"dl031: k\u00f6nnen computer malen?"},"content":{"rendered":"\n\t\t\n            <div class=\"podlove-web-player intrinsic-ignore podlove-web-player-loading\" id=\"player-69dea9805cc30\"><root data-test=\"player--xl\" style=\"max-width:950px;min-width:260px;\">\n  <div class=\"tablet:px-6 tablet:pt-6 mobile:px-4 mobile:pt-4 flex flex-col\">\n    <div class=\"flex-col items-center mobile:flex tablet:hidden\">\n      <show-title class=\"text-sm\"><\/show-title>\n      <episode-title class=\"text-base mb-2\"><\/episode-title>\n      <subscribe-button class=\"mb-4 mobile:flex tablet:hidden\"><\/subscribe-button>\n      <poster class=\"rounded-sm w-48 shadow overflow-hidden\"><\/poster>\n      <divider class=\"w-full my-6\"><\/divider>\n    <\/div>\n\n    <div class=\"tablet:flex flex-grow\">\n      <div class=\"w-64 mobile:hidden tablet:block tablet:mr-6\">\n        <poster class=\"rounded-sm shadow overflow-hidden\"><\/poster>\n      <\/div>\n      <div class=\"w-full\">\n        <div class=\"hidden tablet:block\">\n          <show-title class=\"text-base\"><\/show-title>\n          <episode-title class=\"text-xl desktop:text-2xl\"><\/episode-title>\n          <divider class=\"w-full my-4\"><\/divider>\n        <\/div>\n        <div class=\"flex items-center justify-between\">\n          <div class=\"block\">\n            <play-state on=\"active\">\n              <speed-control class=\"flex items-center\"><\/speed-control>\n            <\/play-state>\n          <\/div>\n\n          <div class=\"flex\">\n            <play-state on=\"active\">\n              <chapter-previous class=\"mx-2 block\"><\/chapter-previous>\n            <\/play-state>\n            <play-state on=\"active\">\n              <step-backward class=\"mx-2 block\"><\/step-backward>\n            <\/play-state>\n\n            <play-button class=\"mx-2 block\" :label=\"$t('PLAYER.PLAY_EPISODE')\"><\/play-button>\n\n            <play-state on=\"active\">\n              <step-forward class=\"mx-2 block\"><\/step-forward>\n            <\/play-state>\n            <play-state on=\"active\">\n              <chapter-next class=\"mx-2 block\"><\/chapter-next>\n            <\/play-state>\n          <\/div>\n\n          <div class=\"block\">\n            <play-state on=\"active\">\n              <volume-control class=\"flex items-center\"><\/volume-control>\n            <\/play-state>\n          <\/div>\n        <\/div>\n        <div class=\"flex w-full\">\n          <progress-bar><\/progress-bar>\n        <\/div>\n        <div class=\"flex w-full -mt-2\">\n          <div class=\"w-3\/12 text-left\">\n            <timer-current class=\"text-sm\"><\/timer-current>\n          <\/div>\n          <div class=\"w-6\/12 text-center truncate\">\n            <play-state on=\"active\">\n              <current-chapter class=\"text-sm\"><\/current-chapter>\n            <\/play-state>\n          <\/div>\n          <div class=\"w-3\/12 text-right\">\n            <timer-duration class=\"text-sm\"><\/timer-duration>\n          <\/div>\n        <\/div>\n      <\/div>\n    <\/div>\n    <divider class=\"w-full mt-6 mb-3\"><\/divider>\n    <div class=\"flex justify-between\">\n      <div class=\"flex mobile:w-full tablet:w-3\/12 desktop:w-3\/12 justify-between\">\n        <tab-trigger tab=\"chapters\">\n          <icon type=\"chapter\"><\/icon>\n        <\/tab-trigger>\n        <tab-trigger tab=\"transcripts\">\n          <icon type=\"transcripts\"><\/icon>\n        <\/tab-trigger>\n        <tab-trigger tab=\"files\">\n          <icon type=\"download\"><\/icon>\n        <\/tab-trigger>\n        <tab-trigger tab=\"playlist\">\n          <icon type=\"playlist\"><\/icon>\n        <\/tab-trigger>\n        <tab-trigger tab=\"share\">\n          <icon type=\"share\"><\/icon>\n        <\/tab-trigger>\n      <\/div>\n      <subscribe-button class=\"mt-1 mobile:hidden tablet:flex\"><\/subscribe-button>\n    <\/div>\n  <\/div>\n  <div class=\"w-full relative overflow-hidden\">\n    <tab name=\"chapters\">\n      <tab-chapters><\/tab-chapters>\n    <\/tab>\n    <tab name=\"transcripts\">\n      <tab-transcripts><\/tab-transcripts>\n    <\/tab>\n    <tab name=\"files\">\n      <tab-files><\/tab-files>\n    <\/tab>\n    <tab name=\"playlist\">\n      <tab-playlist><\/tab-playlist>\n    <\/tab>\n    <tab name=\"share\">\n      <tab-share><\/tab-share>\n    <\/tab>\n    <tab-overflow><\/tab-overflow>\n  <\/div>\n  <error><\/error>\n<\/root>\n<\/div>\n            <script>\n              document.addEventListener(\"DOMContentLoaded\", function() {\n                var player = document.getElementById(\"player-69dea9805cc30\");\n                podlovePlayerCache.add([{\"url\":\"https:\\\/\\\/www.datenleben.de\\\/index.php\\\/wp-json\\\/podlove-web-player\\\/shortcode\\\/publisher\\\/626\",\"data\":{\"version\":5,\"show\":{\"title\":\"datenleben\",\"subtitle\":\"der podcast \\u00fcber data science\",\"summary\":\"Was ist Data Science? Was bedeuten die Daten f\\u00fcr unser Leben? Woher kommen sie und wozu werden sie benutzt?\\r\\nDas sind alles Fragen, mit denen wir uns auseinander setzen werden.\\r\\nWer schon immer mehr \\u00fcber Daten und deren Effekt auf unser Leben wissen wollte, ist hier genau richtig.\",\"poster\":\"https:\\\/\\\/www.datenleben.de\\\/podlove\\\/image\\\/687474703a2f2f7777772e646174656e6c6562656e2e64652f77702d636f6e74656e742f75706c6f6164732f323032302f30362f636f7665722e706e67\\\/500\\\/0\\\/0\\\/datenleben\",\"link\":\"https:\\\/\\\/www.datenleben.de\"},\"title\":\"dl031: k\\u00f6nnen computer malen?\",\"subtitle\":\"Bildgenerierung mit KI\",\"summary\":\"Es geht endlich mal wieder um Maschinelles Lernen und zwar um Neuronalen Netze, die durch Texteingabe Bilder generieren k\\u00f6nnen. Was ist das und welche Anwendungen gibt es? Wir haben viel Spa\\u00df beim Experimentieren gehabt und m\\u00f6chten euch erz\\u00e4hlen, was uns dabei aufgefallen ist. \\u00dcber welche Probleme sind wir dabei gestolpert? Und wie funktioniert das \\u00fcberhaupt auf der technisches Seite? Dar\\u00fcber und welche Gedanken das noch so ausl\\u00f6st, reden wir in dieser Folge.\",\"publicationDate\":\"2022-10-29T12:00:04+02:00\",\"duration\":\"01:05:53.904\",\"poster\":\"https:\\\/\\\/www.datenleben.de\\\/podlove\\\/image\\\/68747470733a2f2f7777772e646174656e6c6562656e2e64652f77702d636f6e74656e742f75706c6f6164732f323032322f31302f3033315f436f7665725f432e706e67\\\/500\\\/0\\\/0\\\/dl031-koennen-computer-malen\",\"link\":\"https:\\\/\\\/www.datenleben.de\\\/index.php\\\/2022\\\/10\\\/29\\\/dl031-koennen-computer-malen\\\/\",\"chapters\":[{\"start\":\"00:00:00.000\",\"title\":\"Intro\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:00:18.452\",\"title\":\"Thema des Podcasts\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:00:41.786\",\"title\":\"Thema der Folge\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:01:48.980\",\"title\":\"Warum ist dieses Thema interessant?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:02:39.238\",\"title\":\"Einspieler: Gibt es da nicht was im Internet... ?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:05:19.437\",\"title\":\"Was ist dieses Bilder generieren - ganz grob gesagt?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:11:45.192\",\"title\":\"Was kann mensch damit anstellen?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:20:04.368\",\"title\":\"Was kann bei der Generierung Probleme bereiten?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:31:59.724\",\"title\":\"Wie funktioniert die KI der automatische Bildgenerierung?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:40:40.037\",\"title\":\"Wie funktioniert das mit den Trainingsdaten?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:49:06.346\",\"title\":\"Wor\\u00fcber sollten wir nachdenken?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"00:59:56.165\",\"title\":\"Ausblick - Wie entwickelt sich das Thema aktuell weiter?\",\"href\":\"\",\"image\":\"\"},{\"start\":\"01:01:42.332\",\"title\":\"Fazit\",\"href\":\"\",\"image\":\"\"},{\"start\":\"01:04:37.909\",\"title\":\"N\\u00e4chste Folge: Erscheint Ende November\",\"href\":\"\",\"image\":\"\"},{\"start\":\"01:04:58.319\",\"title\":\"Call to Action\",\"href\":\"\",\"image\":\"\"}],\"audio\":[{\"url\":\"https:\\\/\\\/www.datenleben.de\\\/podlove\\\/file\\\/130\\\/s\\\/webplayer\\\/c\\\/website\\\/DL031_bilder_generieren.mp3\",\"size\":\"66510023\",\"title\":\"MP3 Audio (mp3)\",\"mimeType\":\"audio\\\/mpeg\"}],\"files\":[{\"url\":\"https:\\\/\\\/www.datenleben.de\\\/podlove\\\/file\\\/130\\\/s\\\/webplayer\\\/DL031_bilder_generieren.mp3\",\"size\":\"66510023\",\"title\":\"MP3 Audio\",\"mimeType\":\"audio\\\/mpeg\"}]}}, {\"url\":\"https:\\\/\\\/www.datenleben.de\\\/index.php\\\/wp-json\\\/podlove-web-player\\\/shortcode\\\/config\\\/default\\\/theme\\\/datenleben\",\"data\":{\"activeTab\":\"chapters\",\"subscribe-button\":null,\"share\":{\"channels\":[\"link\",\"facebook\",\"twitter\",\"whats-app\",\"linkedin\",\"pinterest\",\"xing\",\"mail\"],\"outlet\":\"https:\\\/\\\/www.datenleben.de\\\/wp-content\\\/plugins\\\/podlove-web-player\\\/web-player\\\/share.html\",\"sharePlaytime\":true},\"related-episodes\":{\"source\":\"disabled\",\"value\":null},\"version\":5,\"theme\":{\"tokens\":{\"brand\":\"#fff\",\"brandDark\":\"#fff\",\"brandDarkest\":\"#000\",\"brandLightest\":\"#8cc240\",\"shadeDark\":\"#807E7C\",\"shadeBase\":\"#807E7C\",\"contrast\":\"#000\",\"alt\":\"#8cc240\"},\"fonts\":{\"ci\":{\"name\":\"ci\",\"family\":[\"-apple-system\",\"BlinkMacSystemFont\",\"Segoe UI\",\"Roboto\",\"Helvetica\",\"Arial\",\"sans-serif\",\"Apple Color Emoji\",\"Segoe UI Emoji\\\", \\\"Segoe UI Symbol\"],\"src\":[],\"weight\":800},\"regular\":{\"name\":\"regular\",\"family\":[\"-apple-system\",\"BlinkMacSystemFont\",\"Segoe UI\",\"Roboto\",\"Helvetica\",\"Arial\",\"sans-serif\",\"Apple Color Emoji\",\"Segoe UI Emoji\\\", \\\"Segoe UI Symbol\"],\"src\":[],\"weight\":300},\"bold\":{\"name\":\"bold\",\"family\":[\"-apple-system\",\"BlinkMacSystemFont\",\"Segoe UI\",\"Roboto\",\"Helvetica\",\"Arial\",\"sans-serif\",\"Apple Color Emoji\",\"Segoe UI Emoji\\\", \\\"Segoe UI Symbol\"],\"src\":[],\"weight\":700}}},\"base\":\"https:\\\/\\\/www.datenleben.de\\\/wp-content\\\/plugins\\\/podlove-web-player\\\/web-player\\\/\"}}]);\n                podlovePlayer(player, \"https:\/\/www.datenleben.de\/index.php\/wp-json\/podlove-web-player\/shortcode\/publisher\/626\", \"https:\/\/www.datenleben.de\/index.php\/wp-json\/podlove-web-player\/shortcode\/config\/default\/theme\/datenleben\").then(function() {\n                  player && player.classList.remove(\"podlove-web-player-loading\");\n                });\n              });\n            <\/script>\n            <style>\n              .podlove-web-player.podlove-web-player-loading {\n                opacity: 0;\n              }\n            <\/style>\n        \n\t\n\t\t\n<p>Es geht endlich mal wieder um Maschinelles Lernen und zwar um Neuronalen Netze, die durch Texteingabe Bilder generieren k\u00f6nnen. Was ist das und welche Anwendungen gibt es? Wir haben viel Spa\u00df beim Experimentieren gehabt und m\u00f6chten euch erz\u00e4hlen, was uns dabei aufgefallen ist. \u00dcber welche Probleme sind wir dabei gestolpert? Und wie funktioniert das \u00fcberhaupt auf der technischen Seite? Dar\u00fcber und welche Gedanken das noch so ausl\u00f6st, reden wir in dieser Folge.<\/p>\n<h3>Intro (00:00:00)<\/h3>\n<h3>Thema des Podcasts (00:00:18)<\/h3>\n<p>Willkommen zu unserer 31. Folge beim datenleben-Podcast, dem Podcast \u00fcber DataScience!<br \/>\nWir sind Helena und Janine und m\u00f6chten euch mitnehmen in die Welt der Daten.<br \/>\nWas ist Data Science? Was bedeuten Daten f\u00fcr unser Leben? Woher kommen sie und wozu werden sie benutzt?<br \/>\nDas sind Fragen, mit denen wir uns in diesem Podcast auseinander setzen.<br \/>\nDabei gehen wir Themen nach, die uns alle und die Welt, in der wir leben, betreffen.<\/p>\n<h3>Thema der Folge (00:00:42)<\/h3>\n<ul>\n<li>Dieses Mal geht es um K\u00fcnstliche Intelligenz... allerdings vielleicht etwas mehr um das Kunst in K\u00fcnstlich<\/li>\n<li>Und vielleicht auch nicht wirklich im Intelligenz<\/li>\n<li>Ihr ahnt vielleicht, es geht zur Abwechslung mal wieder um Maschinelles Lernen: das generieren von Bildern mittels KI<\/li>\n<li>Wir reden erstmal im Allgemeinen Teil dar\u00fcber, was das ist, welche Anwendungen es gibt und was ihr Ziel ist<\/li>\n<li>Danach erz\u00e4hlen wir euch von unseren Experimenten und Erfahrungen mit diesen Anwendungen<\/li>\n<li>War haben n\u00e4mlich welche herausgepickt und die auch ein bisschen miteinander verglichen<\/li>\n<li>Dabei sind wir auch \u00fcber altbekannte  &quot;Probleme&quot; gestolpert<\/li>\n<li>Schlie\u00dflich wird Helena dann auch nochmal etwas zur Funktionsweise, also dem technischen Hintergrund, erz\u00e4hlen<\/li>\n<li>Und ehe wir dann zum Fazit kommen, m\u00f6chte ich nochmal allgemein ein paar Ethische Konfliktpunkte anrei\u00dfen<\/li>\n<\/ul>\n<h3>Warum ist das Thema interessant? (00:01:49)<\/h3>\n<ul>\n<li>Dieser Aspekt vom Maschinellen Lernen\/K\u00fcnstlicher Intelligenz wird dieses Jahr besonders viel besprochen<\/li>\n<li>seit anfang des jahres wird immer wieder dar\u00fcber geredet und immer wieder neue anwendungen und verbesserungen<\/li>\n<li>im letzten halben jahr hat sich da viel getan<\/li>\n<li>\u00dcber das Generieren von Bildern mit sogenannter K\u00fcnstlicher Intelligenz reden aktuell sehr viele<\/li>\n<li>Das Thema ist sowohl spannend als auch nicht unumstritten<\/li>\n<\/ul>\n<h3>Einspieler: Gibt es da nicht was im Internet... ? (00:02:40)<\/h3>\n<ul>\n<li>Ton einer ankommenden Nachricht. &quot;Freue mich auf die Runde, bis nachher!&quot;<\/li>\n<li>Ah, verdammt, was mache ich jetzt, ich habe nicht alles beisammen? Ich schreibe Pia...<\/li>\n<li>Ger\u00e4usche von Tasten. Habe mal wieder einen Termin verpennt. Ich leite nachher online die Rollenspielrunde und brauche noch stimmungsvolle Bilder? Wo kriege ich denn jetzt so schnell passende her? Hast Du Ideen? Habe nur noch eine Stunde!<\/li>\n<li>Komm schon, komm schon, antworte! <em>trommeln auf dem tisch<\/em> ... <em>ping<\/em><\/li>\n<li>Pia per Sprachnachricht: Sorry, ich wei\u00df du hast Sprachnachrichten, aber ich bin grad zu faul zum tippen. Oh Mist! Gibt es nicht was im Internet?<\/li>\n<li>Getippte Antwort: Bis ich alles durchw\u00fchlt habe, ist die Stunde rum und es passt auch nie richtig<\/li>\n<li>Pia per Sprachnachricht: Nimmst du nicht f\u00fcr Namen immer so Generatoren? Fantasynamensgeneratoren? Gibt es sowas nicht auch f\u00fcr Bilder?<\/li>\n<li>Getippte Antwort: Du bist grandions! Nat\u00fcrlich, habe vor ein paar Wochen mal so etwas getestet, ich guck mal, ob's das bringt.<\/li>\n<li>Pia per Sprachnachricht: Und, wie ist es gestern gelaufen?<\/li>\n<li>Getippet Antwort: Total gut. Habe vor lauter Bilder generieren fast den Anfang der Runde verpasst, aber war gro\u00dfartig. Hat so richtig sch\u00f6n gepasst. Zugegeben, wir mussten auch lachen, ein paar der Nebenfiguren hatten echt schr\u00e4ge Gesichter. Danke nochmal, f\u00fcr die Idee, war super!<\/li>\n<\/ul>\n<h3>Was ist dieses Bilder generieren - ganz grob gesagt? (00:05:19)<\/h3>\n<ul>\n<li>Es ist eine Maschine - neuronales Netz - da wirft man Text rein und am ende kommt ein Bild heraus<\/li>\n<li>die benutzende person beschreibt ein bild, tippt ein text ein und der computer generiert aus dem text ein bild<\/li>\n<li>Das neuronale Netz folgt also der Anleitung und denkt sich nichts selbst aus, ist also keine wirkliche Intelligenz<\/li>\n<li>Das Stichwort hierf\u00fcr ist aus dem Englischen: &quot;text to image&quot;<\/li>\n<li>Was gibt es f\u00fcr Anwendungen?<\/li>\n<li>Craiyon (dall e mini) <a href=\"https:\/\/www.craiyon.com\/\">https:\/\/www.craiyon.com\/<\/a>\n<ul>\n<li>Kostenlos, \u00fcber Webseite nutzbar und generiert 9 Bilder auf dem eingegebenen Text<\/li>\n<li>Witzig, aber sahen teilweise creepy aus, vor allem Gesichter<\/li>\n<li>Das war aber noch keine ganze Folge wert, aber seitdem hat sich einiges getan<\/li>\n<\/ul>\n<\/li>\n<li>Alle gro\u00dfen IT-Firmen arbeiten gerade an solchen Projekten<\/li>\n<li>Microsoft\n<ul>\n<li>Turing Bletchley, nicht kostenlos ver\u00f6ffentlicht<\/li>\n<li>Beispiele einsehbar: <a href=\"https:\/\/www.microsoft.com\/en-us\/research\/blog\/turing-bletchley-a-universal-image-language-representation-model-by-microsoft\/\">https:\/\/www.microsoft.com\/en-us\/research\/blog\/turing-bletchley-a-universal-image-language-representation-model-by-microsoft\/<\/a><\/li>\n<li>Problematisch: Beispiele sind vermutlich gut ausgesucht, potentieller Ausschuss nicht sichtbar von Au\u00dfen<\/li>\n<li>Kann auch andere Sprachen als Englisch<\/li>\n<\/ul>\n<\/li>\n<li>Midjourney <a href=\"https:\/\/www.midjourney.com\/home\/\">https:\/\/www.midjourney.com\/home\/<\/a>\n<ul>\n<li>Kann kostenlos benutzt werden, aber auch zus\u00e4tzliche mit Geld erweitert werden<\/li>\n<li>\u00d6ffentliche Beta in deren Discord: man kann dort \u00fcber einen Bot Bilder generieren<\/li>\n<li>Erzeugt werden 4 Bilder und es werden Progress sowie Zwischenschritte angezeigt<\/li>\n<li>Dann kann man zu einem der 4 Blder weitere \u00e4hnliche Bilder erzeugen lassen, oder eins davon hochskalieren lassen<\/li>\n<li>Man hat als Benutzender also mehrere M\u00f6glichkeiten, wie man damit weiter arbeitet<\/li>\n<li>Es kriegt auch Gesichter sehr gut hin<\/li>\n<\/ul>\n<\/li>\n<li>Night Cafe <a href=\"https:\/\/creator.nightcafe.studio\/\">https:\/\/creator.nightcafe.studio\/<\/a>\n<ul>\n<li>Erzeugt nur &quot;gemalte Bilder&quot;\/Gem\u00e4lde<\/li>\n<li>Kann durch diese &quot;Einschr\u00e4nkung&quot; besser trainiert werden, weil weniger verschiedene Optionen zur Verf\u00fcgung stehen<\/li>\n<li>Dadurch ist es spezialisierter und auch billiger in der Erzeugung des Modells<\/li>\n<\/ul>\n<\/li>\n<li>Dream Studio <a href=\"https:\/\/beta.dreamstudio.ai\/dream\">https:\/\/beta.dreamstudio.ai\/dream<\/a>\n<ul>\n<li>Kostenlos nutzbar, von Stability AI, die mit anderen Gruppen zusammengearbeitet haben<\/li>\n<li>stable diffusion modell dahinter, das runtergeladen werden kann - kostenlos<\/li>\n<li>Kann aber auch auf deren Webseite genutzt werden, ist auch schon ziemlich gut<\/li>\n<li>Dieses Modell hat Helena vorallem benutzt<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h3>Was kann mensch damit anstellen? (00:11:45)<\/h3>\n<ul>\n<li>Haben uns nat\u00fcrlich gefragt, &quot;Was kann mensch damit anstellen?&quot; und ein bisschen rumexperimentiert<\/li>\n<li>Viele, deswegen Beispiele rausgepickt: htable diffusion, midjourney und craiyon<\/li>\n<li>Helenas Experimente mit stable diffusion:<\/li>\n<li>Erstmal das Modell, also das neuronale Netz stable diffusion runterladen<\/li>\n<li>Ist eigentlich f\u00fcr Grafikkarten (darauf wird es laufen) mit mindestens 10GB Speicher<\/li>\n<li>Helenas hatte nur 6GB, was auch f\u00fcr andere Leute das Problem war<\/li>\n<li>Deswegen gab es eine vereinfachte Version f\u00fcr 6GB Grafikkarten, hierbei waren die Modelle weniger genau und konnten ihre Zahlen weniger pr\u00e4zise speichern<\/li>\n<li>Dann konnte es losgehen mit dem Bilder generieren<\/li>\n<li>Erster Test: Namen von Menschen, die Helena kennt, denn im Trainingsdatensatz k\u00f6nnen diese ja auch drin sein und dann generiert werden<\/li>\n<li>Allerdings hat das nicht funktioniert<\/li>\n<li>Gelingt aber mit ber\u00fchmten Menschen (Albert Einstein etc.), vermutlich weil genug Bilder in den Trainingsdaten waren<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/albert-einstein-on-a-bridge.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Zweiter Test: Ausmalbilder f\u00fcr Kinder<\/li>\n<li>Idee aus der Bildershow vom Microsoft-Tool<\/li>\n<li>Mit Elefanten: Ging gut, hat aber auch einmal den Elefanten schon selbst ausgemalt<\/li>\n<li>Es waren gute Ausmalbilder, aber teilweise ein bisschen kompliziert, eher f\u00fcr Erwachsene<\/li>\n<li>Mit Wolpertinger (Fantasiegestalt, setzt sich aus verschiedenen Tieren zusammen): Aufgrund der gro\u00dfen Vielfalt von Wolpertingern sehen die Ausmalbilder auch entsprechend absurd aus, aber erkennbar Wolpertinger<\/li>\n<li>Manche Wolpertinger sehen allerdings ein bisschen aus wie sehr pl\u00fcschige Motten<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/coulouring_templates.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Dritter Test: Sch\u00f6ner Sonnenuntergang am Strand<\/li>\n<li>Beeindruckend waren, dass die Reflexionen der Sonne im Wasser waren sogar richtig<\/li>\n<li>Sonnenuntergang vom Flugzeug probiert, aber keine eigene Erfahrung, um das mit der Realit\u00e4t vergleichen zu k\u00f6nnen<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/beautiful_sunset.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Vierter Test: Hubble Deepfield<\/li>\n<li>Deepfield aufnahme, ist, wenn das Weltraumteleskop sehr weit entfernte Galaxien und Sterne aufnimmt<\/li>\n<li>Generierung klappt tats\u00e4chlich sehr gut, Helena war sehr begeistert<\/li>\n<li>F\u00fcnfter Test: Wissenschaftliche Schemazeichnungen<\/li>\n<li>Das ist komplett schief gegangen<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/hubble_schema.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Sechster Test: map of tasmania<\/li>\n<li>Es ergibt eine karte, die sehr grobe Form hat gestimmt<\/li>\n<li>Siebter Test: Person mit bunten Haaren auf einem Pferd sitzend<\/li>\n<li>Es kam heraus ein Pferd mit 4 Beinen, ein Mensch mit 2 Beinen, allerdings fraglich, warum man die 2 Beine auf diese Weise sieht<\/li>\n<li>Anzahl F\u00fc\u00dfe und Hufe korrekt, aber ein menschlicher Fu\u00df war am Pferd, ein Huf am Menschen<\/li>\n<li>Gesicht komplett schief gegangen<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/tasmania_riding.jpg\" alt=\"\" \/><\/p>\n<h3>Was kann bei der Generierung Probleme bereiten? (00:20:04)<\/h3>\n<ul>\n<li>Gesichter:<\/li>\n<li>Ein Weg, um sicher zu stellen, dass Darstellungen von Menschen scheitern, ist, sie in einer komplexen Szenerie darzustellen, oder mehrere Menschen auf einem Bild<\/li>\n<li>Eine einzelne Person funktioniert am besten<\/li>\n<li>Bei Szenerien nicht, als w\u00fcrde die Wichtigkeit der Person dann nicht mehr im Vordergrund stehen<\/li>\n<li>Schrift:<\/li>\n<li>Ergibt einfach keinen Sinn<\/li>\n<li>Es generiert Schrift, aber sie ist teilweise nicht lesbar und wenn sie lesbar ist, ergeben die W\u00f6rter keinen Sinn<\/li>\n<li>Semantik:<\/li>\n<li>Probleme bei Szenerien, Beispiel: Wolpertinger on a bus<\/li>\n<li>Ergebnisse verschieden: Wolpertinger sitzen im Bus, sind auf den Bus aufgemalt oder sitzen oben drauf<\/li>\n<li>Es war halt sprachlich nicht eindeutig<\/li>\n<li>Semantik ist wichtig!<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/wolpertinger_cat.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Weiteres Beispiel: gray cat grass kann auch verschiedene Ergebnisse erzeugen, bereits wenn man im Trainingsdatensatz danach sucht<\/li>\n<li>\n<ol>\n<li>Graue Katze auf grass (gray cat grass - alle Begriffe wurden benutzt)<\/li>\n<\/ol>\n<\/li>\n<li>\n<ol start=\"2\">\n<li>Graue Katze (gray cat - grass wird hier unterschlagen)<\/li>\n<\/ol>\n<\/li>\n<li>\n<ol start=\"3\">\n<li>Graues grass (gray grass - cat wird hier unterschlagen)<\/li>\n<\/ol>\n<\/li>\n<li>\n<ol start=\"4\">\n<li>Katzengras (cat grass - cat wird hier als nur als &quot;cat grass&quot; interpretiert, also die Pflanze, gray wird unterschlagen)<\/li>\n<\/ol>\n<\/li>\n<li>Ursache: die KI hat keine Semantik vorgefunden in Form von Adjektiven, Satzzeichen etc. also die Worte einfach frei interpretiert<\/li>\n<li>Um nur Graue Katzen auf Grass zu bekommen, m\u00fcsste man spezifisch &quot;gray cat on grass&quot; oder &quot;gray cat, grass&quot; eingeben<\/li>\n<li>Weitere Sprachexperimente: White House (ergibt das Wei\u00dfe Haus, den Regierungssitz in den USA), black house ergibt schwarze H\u00e4user und green house ergibt Gew\u00e4chsh\u00e4user (direkte \u00dcbersetzung aus dem Englischen), f\u00fcr gr\u00fcne H\u00e4user m\u00fcsste &quot;Green colored House&quot; eingegeben werden<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/green_house.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Helena hat versucht mit Midjourney Ideen f\u00fcr die Umsetzung ihres Halloweenkost\u00fcms zu bekommen<\/li>\n<li>Eingabe war: Frauen auf denen Pilze wachsen; hat verschiedene Sachen rausbekommen<\/li>\n<li>Davon hat sie eines hochskalieren lassen, was dann immer creepyer aussah<\/li>\n<li>Midjourney konnte gr\u00f6\u00dfere Bilder erstellen &quot;upscaling&quot;, erzeugt auch mehr Pr\u00e4zision<\/li>\n<li>Eins hat sie dann als Ausgangspunkt f\u00fcr weitere Bilder genutzt, Gesichter anfangs sehr neutral, in den hochskalierten Bildern wurden nicht nur die Details besser, die Person hat dann auch gel\u00e4chelt<\/li>\n<li>Das ist auch von den Personen her das beste Bild, in der Hinsicht ist Midjourney schon beeindruckend<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/women_mushrooms.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Bias:<\/li>\n<li>Bias ist ein Vorurteil oder eine Vorannahme, die sich auch in Daten niederschlagen k\u00f6nnen (siehe Folge <a href=\"https:\/\/www.datenleben.de\/index.php\/2020\/09\/05\/folge-004-racial-profiling\/\">dl004: racial profiling<\/a>)<\/li>\n<li>Dazu geh\u00f6rt die Diskriminierung von Minderheiten oder eben die aktive Marginalisierung - Diskriminierung betrifft ja nicht nur Minderheiten im Sinne von kleineren Gruppen, sondern eben auch gr\u00f6\u00dfere Gruppen<\/li>\n<li>Inzwischen wird fast schon selbstverst\u00e4ndlich darauf verwiesen, dass Trainingsdaten einen Bias haben<\/li>\n<li>Ein Beispiel, dass wir gefunden haben, war <a href=\"https:\/\/www.katrin-raabe.de\/blog\/kuenstliche-intelligenz-kritische-gedanken-zu-midjourney\">&quot;most attractive men in the world&quot;<\/a><\/li>\n<li>Hat fast ausschlie\u00dflich identisch aussehende M\u00e4nner ergeben: wei\u00df, mittel alt, gepflegter kurzer Bart<\/li>\n<li>Wahrescheinlich sind Bilder \u00e4hnlich aussehender M\u00e4nner im Interent oft damit beschriftet<\/li>\n<li>Ein zweites Beispiel, das auch jemand probierte war &quot;professionell hairstyles&quot; und &quot;unprofessionell hairstyles&quot;<\/li>\n<li>Viele Frisuren, auch von wei\u00dfen Personen, bei beiden Begriffen, Differenzierung zwischen professionell und unprofessionell war nicht ganz ersichtlich<\/li>\n<li>Die Idee diese Begriffe auszuprobieren r\u00fchrt daher, dass festgestellt wurde, dass in Suchmaschinen bei &quot;unprofessionell hairstyles&quot; \u00fcberwiegend Schwarze Menschen gezeigt werden und bei professionell \u00fcberwiegend wei\u00dfe Menschen, was eben ein gesellschaftliches Urteil ist<\/li>\n<li>Das konnte aber so mit der Bildgenerierung nicht rekonstruiert werden, aber der Bias ist klar, dass hier fast ausschlie\u00dflich wei\u00dfe Menschen in den Bildern erzeugt werden<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/attractive_hairstyles.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Genderbias und genderneutrale Sprache:<\/li>\n<li>Getestete Begriffe waren &quot;doctor&quot; (\u00c4rzt*in) und &quot;nurse&quot; (Krankenpfleger*in)<\/li>\n<li>Obwohl Englisch an sich eine genderneutrale Sprache sein kann, wurden bei doctor nur M\u00e4nner oder Schriftz\u00fcge dargestellt<\/li>\n<li>Bei nurse wurden ausschlie\u00dflich Bilder von Frauen generiert<\/li>\n<li>Gesellschaftliche Klischees f\u00fchren also auch hier dazu, dass Vorurteile so stark reproduziert werden<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/doctor_nurse.jpg\" alt=\"\" \/><\/p>\n<h3>Wie funktioniert die KI der automatische Bildgenerierung? (00:32:00)<\/h3>\n<ul>\n<li>Jetzt haben wir schonmal einen \u00dcberblick dar\u00fcber, was das ist und was man damit machen kann<\/li>\n<li>Jetzt ist die Frage wie das alles zu stande kommt, was wir beobachtet haben: warum ist das so?<\/li>\n<li>Oder anders gesagt: Wie funktioniert so eine Anwendung auf der technischen Seite?<\/li>\n<li>Die KI\/das neuronale Netz, das hinter der Bildgenerierung steckt, ist gar nicht so leicht, deswegen erstmal ein einfacheres Konzept, das noch nicht stable diffusion ist:<\/li>\n<li>Man erstellt ein Bild aus zuf\u00e4lligem Rauschen<\/li>\n<li>Nutzt dann ein Neuronales Netz das 'vorhersagt' was ein gutes Bild sein w\u00fcrde<\/li>\n<li>Und dann nutzt man ein anderes Neuronales Netz das gute Bilder erkennt<\/li>\n<li>Und mit letzterem trainiert man das erste Netz so, dass es besser wird, und zeigt auch nur die an, die als 'gut' benannt werden<\/li>\n<li>Die diffusion Modelle hingegen erzeugen nicht einfach ein Bild<\/li>\n<li>Was ist Diffusion? In der Chemie: wenn man einen Tropfen Tinte in Wasser packt, verteilt sich diese erst in Schlieren, bis das Wasser dann gleichm\u00e4u\u00dfig bl\u00e4ulich gef\u00e4rbt ist<\/li>\n<li>Das ist Diffusion: ein definierter Zustand wird immer verschwommener<\/li>\n<li>Was macht Stable Diffusion? f\u00e4ngt bei einem komplett verschwommenen Bild an und wird immer detaillierter<\/li>\n<li>Weil die Verteilung auch anfangs zuf\u00e4llig ist, nennt man das auch Rauschen<\/li>\n<li>Es geht bei dem diffusion modell darum letztendlich das Rauschen zu entfernen<\/li>\n<li>Es sagt das Rauschen in einem Bild vorraus, statt direkt ein sch\u00f6nes Bild zu erstellen, wird erstmal nur berechnet wo es rauscht<\/li>\n<li>Das funktioniert, weil man das prognostizierte Rauschen und das Eingangsbild wiederum<br \/>\nvoneinander abziehen kann, und dann kommt ein Bild heraus mit potentiell<br \/>\nweniger Rauschen<\/li>\n<li>Das wird dann viele Male hintereinander gemacht, f\u00fcr verschiedene Rauschlevel, und so lassen sich Bilder generieren<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"http:\/\/www.datenleben.de\/wp-content\/uploads\/2022\/10\/progress.jpg\" alt=\"\" \/><\/p>\n<ul>\n<li>Janine findet, dass das so klingt, wie auch beim Malen vorgegangen werden kann<\/li>\n<li>Sie startet mit einer Farbfl\u00e4che, zum Beispiel gr\u00fcn f\u00fcr Wald und erg\u00e4nzt dann helle und dunkle T\u00f6ne und arbeitet so aus dieser Fl\u00e4che nach und nach die Details raus<\/li>\n<li>Aber nur Rauschen entfernen hat ja noch nichts mit einem Text zu tun<\/li>\n<li>Diese Rauschentfernung durch das neuronale Netz kann so gemacht werden, dass das neuronale Netz den Text kennt<\/li>\n<li>Und anhand der Bildbeschreibung kann es dann Dinge, die beschrieben wurden, st\u00e4rker hervorheben, sodass da dann weniger Rauschen ist<\/li>\n<li>Macht man die Rauschvorhersage mit einem Neuronalen Netz, dass auch auf Bildbeschreibungen trainiert wurde, erkennt es Rauschen, das nicht zu dem Text passt besser<\/li>\n<li>Wenn man jetzt aber beide verfahren gleichzeitig umsetzt, also einmal mit Text das Rauschen ermitteln und einmal ohne Text, dann ist das Neuronale Netz sensitiver an der Stelle wo das beschriebene Objekt im Bild ist, und man kann beim<br \/>\nvergleichen beider Rauschprofile dann die Stelle verst\u00e4rken, wo das gew\u00fcnschte Objekt im Bild drin ist<\/li>\n<li>Beide Netze erkennen \u00fcberall gleich das Rauschen, aber das neuronale Netz, dass den Text hat, erkennt an der Stelle, wo die Katze sein sollte, dass dort keine Katze ist, das Rauschen also besonders stark ist<\/li>\n<li>Wenn jetzt beide Bilder verglichen werden, kann gesehen werden, wo die Katze hin soll und kann an dieser Stelle das Ergebnis verst\u00e4rken<\/li>\n<li>Wenn man beides gleichzeitig macht, werden die generierten Bilder deutlich pr\u00e4ziser<\/li>\n<li>Dazu hat Helena auch ein gutes Video gefunden: <a href=\"https:\/\/www.youtube.com\/watch?v=1CIpzeNxIhU\">Computerphile, YouTube<\/a><\/li>\n<li>Die Verst\u00e4rkung ist der eigentliche Trick dieses Verfahrens<\/li>\n<li>Spannend sind auch die vielen Zwischenschritte mit Bildern, die dabei entstehen<\/li>\n<li>Das f\u00fchrt dazu, dass man auch mit einem richtigen Bild anfangen kann, und es dann durch den Text ver\u00e4ndern kann<\/li>\n<\/ul>\n<h3>Wie funktioniert das mit den Trainingsdaten? (00:40:40)<\/h3>\n<ul>\n<li>Um das neuronale Netz zu trainieren, braucht man viele Bilder und Texte dazu<\/li>\n<li>Ein Arbeitsschritt, der beim Training gemacht wird, ist auf Bilder Rauschen schichtweise hinzuzuf\u00fcgen<\/li>\n<li>So kann das neuronale Netz die umgekehrten Schritte &quot;\u00fcben&quot; und daran schon trainiert werden<\/li>\n<li>Aber daf\u00fcr braucht man einen guten Datensatz, stable diffusion wurde auf einem Teil des Datensatzes Laion-5b trainiert<\/li>\n<li>Laion-5b ist ein Datensatz mit 5 Milliarden Bild-Text-Paaren: <a href=\"https:\/\/laion.ai\/blog\/laion-5b\/\">https:\/\/laion.ai\/blog\/laion-5b\/<\/a><\/li>\n<li>Woher kommen die Bild-Text-Paare? Aus dem Internet!<\/li>\n<li>Letztlich wird wie bei einer Suchmaschine das Internet durchsucht, und Bilder mit Beschreibungstexten werden gespeichert<\/li>\n<li>Weil das Internet voller Pornographie ist, werden solche Bilder mit dem safety-tag 'NSFW' (Not Safe For Work) markiert, damit man<br \/>\ndiese Bilder beim Training aussortieren kann<\/li>\n<li>Weiteres Problem: sichtbare Wasserzeichen im Bild (z.B. URLs), die auch nicht miteglernt werden sollen werden ebenfalls markiert<\/li>\n<li>Die meisten Bilder sind dabei auch kleiner als 512px.<\/li>\n<li>Problem: Was ist ist wenn die Bildbeschreibung nicht zum Bild passt?<\/li>\n<li>Daf\u00fcr wurde ein Modell names CLIP verwendet, das bereits vorher existierte, um von vornherein diese Bilder auszusortieren<\/li>\n<li>Der Datensatz besteht aber jetzt nicht aus Bildern, sondern enth\u00e4lt Metadaten und die Links zu den Bildern, sodass die dann f\u00fcr das Training direkt runtergeladen werden k\u00f6nnen<\/li>\n<li>Modellerstellung: Einige 100 Millionen Bilder wurden dann benutzt um <a href=\"https:\/\/github.com\/CompVis\/stable-diffusion\">stable diffusion<\/a> zu trainieren<\/li>\n<li>Modell wurde anfangs auf 256px Bilder trainiert, sp\u00e4ter dann mit einer Aufl\u00f6sung 512px weitertrainiert; das ist auch die finale Gr\u00f6\u00dfe der generierten Bilder<\/li>\n<li>Rechenleistung f\u00fcrs Training hat einige 100k\u20ac gekostet, weswegen es cool ist, dass sie das Modell ver\u00f6ffentlicht haben, denn das ist nichts, was man mal eben zu Hause machen kann<\/li>\n<li>Wie gut w\u00e4re dieses Modell bei Deep Fakes? K\u00f6nnen realistisch Personen gefaked werden oder br\u00e4uchte es dazu noch eine andere Software?<\/li>\n<li>Daf\u00fcr gibt es eigentlich sehr spezifische Software, die nur auf die Person zum Beispiel trainiert wird, die gefaked werden soll<\/li>\n<li>Ber\u00fchmte Personen k\u00f6nnen mit stable diffusion schon erkennbar generiert werden, aber meistens ist gut zu sehen, dass die das nicht wirklich sind <\/li>\n<li>Das k\u00f6nnte sich allerdings \u00e4ndern, wenn die Datengrundlage der Bild-Text-Paare w\u00e4chst, aber sicher nicht f\u00fcr Privatpersonen<\/li>\n<li><a href=\"https:\/\/github.com\/CompVis\/stable-diffusion\/blob\/main\/Stable_Diffusion_v1_Model_Card.md#limitations-and-bias\">Beschr\u00e4nkungen, die stable diffusion selbst nennt<\/a>:<\/li>\n<li>Limitierungen: kein perfekter Fotorealismus aktuell m\u00f6glich, Textgenerierung scheitert, komplexe Kompositionen und Menschen sind noch schwierig, es ist nur auf Englisch, sehr viel NSFW-Content, identische Bilder aus verschiedenen Quellen (dominantier im Ergebnis)<\/li>\n<li>Sie weisen auch selbst darauf hin, dass in den Trainingsdaten ein Bias vorhanden ist<\/li>\n<li>Also eigentlich alles, was uns auch aufgefallen ist<\/li>\n<\/ul>\n<h3>Wor\u00fcber sollten wir nachdenken? (00:49:06)<\/h3>\n<ul>\n<li>Das f\u00fchrt zu der Frage: Wor\u00fcber sollten wir uns vielleicht Gedanken machen beim Einsatz solcher KIs?<\/li>\n<li>Bias in den Daten ist nat\u00fcrlich nur ein Aspekt, \u00fcber den wir uns als Gesellschaft gedanken machen sollten (Repr\u00e4sentation, Diversit\u00e4t, etc.)<\/li>\n<li>Nicht nur durch den Bias der tats\u00e4chlichen Trainungsdaten kann Diskriminierung entstehen, sondern auch durch den <a href=\"https:\/\/www.katrin-raabe.de\/blog\/kuenstliche-intelligenz-kritische-gedanken-zu-midjourney\">Ausschluss von Worten wie &quot;Down Syndrom&quot;<\/a> bei der Text zu Bild Generierung<\/li>\n<li>Daneben gibt es noch weitere<\/li>\n<li>Auch Deep Fakes hatten wir schon angesprochen, fotorealistische Nachbildungen durch eine KI k\u00f6nnen menschen durchaus in die irre f\u00fchren<\/li>\n<li>Zwar aktuell so nicht m\u00f6glich, aber es k\u00f6nnte noch aktuelle werden und allgemein ist es jetzt schon etwas, wo wir \u00fcber den Umgang mit irref\u00fchrendem Bildmaterial nachdenken m\u00fcssen<\/li>\n<li>Hier liegt das Problem vor allem darin, dass Nachrichten, Informationen etc. manipuliert werden k\u00f6nnen, um mit sogenannten alternativen Fakten einfluss auszu\u00fcben<\/li>\n<li>Aktuell werden tats\u00e4chlich unsichtbare Wasserzeichen in automatisch generierte Bilder gesetzt<\/li>\n<li>Das k\u00f6nnte nat\u00fcrlich auch umgangen werden, wenn wer b\u00f6se Absichten hat, aber es erschwert es zumindest<\/li>\n<li>Die sind haupts\u00e4chlich daf\u00fcr, dass keine generierten Bilder zum Training f\u00fcr die neuronalen Netze benutzt werden<\/li>\n<li>Sind mein Bilder in Trainingsdaten? Diese Website sagt es dir: <a href=\"https:\/\/haveibeentrained.com\/\">https:\/\/haveibeentrained.com\/<\/a><\/li>\n<li>Wer nicht m\u00f6chte, dass eigene Portraits in diesem Datensatz sind, kann diese Webseite nutzen<\/li>\n<li>Datenschutz: <a href=\"https:\/\/www.heise.de\/news\/Private-Bilder-aus-Krankenakte-unerlaubt-als-Trainings-Daten-fuer-KI-verwendet-7274268.html\">Bilder aus einer Krankenakte sind im Datensatz aufgetaucht<\/a><\/li>\n<li>Urheberrecht: <a href=\"https:\/\/t3n.de\/news\/training-ki-modelle-mein-bild-1500599\/\">Sind urheberrechtlich gesch\u00fctzte Bilder enthalten und was bedeutet das?<\/a><\/li>\n<li>Insgesamt wirft das viele fragen auf, gerade was Kunst angeht<\/li>\n<li>Wer hat denn das urheberrecht auf generierte Bilder, wenn sie auf urheberrechtlich gesch\u00fctzten Werken basieren?<\/li>\n<li>Aktuell: Die Person, die es generiert, hat das Urheberrecht<\/li>\n<li>Helena findet, es ist nichts anderes, als sich von anderen inspirieren zu lassen<\/li>\n<li>Aber wie sieht das mit aktuell t\u00e4tigen K\u00fcnstlerinnen aus? Frage ist nicht nur, wem geh\u00f6rt das Bild, sondern was ist damit auch m\u00f6glich, wo sind die Grenzen?<\/li>\n<li>Kunst und Kommerzialisierung: Einiget Plattformen f\u00fcr Kunst haben den Upload von KI generierter Kunst untersagt<\/li>\n<li>Da schwingt durchaus die Angst mit, auch in finanzieller Hinsicht vom Markt verdr\u00e4ngt zu werden<\/li>\n<li>Es gibt aber auch andere Bereiche der Kunst, die versuchen genau die Mittel, die KIs bieten, f\u00fcr ihre Kunst zu nutzen<\/li>\n<li>Hier ist ein kurzes Interview mit einer Person, die eine solche Ausstellung mit iniziiert hat<\/li>\n<\/ul>\n<h3>Ausblick - Wie entwickelt sich das Thema aktuell weiter? (00:59:56)<\/h3>\n<ul>\n<li>Eine Sache, die nach dem Start unserer Recherche dazu kam, ist die Sache, wie Bilder damit bearbeitet werden k\u00f6nnen<\/li>\n<li>Zum Beispiel Bilder eben bearbeiten, Katzen durch Hunde ersetzen, der Rest des Bildes bleibt aber gleich<\/li>\n<li>Auch nur Ausschnitte k\u00f6nnen dann bearbeitet werden<\/li>\n<li>Es wird ebenfalls probiert das auf anderes anzuwenden und auch Videos oder 3D-Modelle k\u00fcnftig generieren zu k\u00f6nnen, realistische Bewegungsabl\u00e4ufe von Menschen<\/li>\n<li>Links dazu: <a href=\"https:\/\/github.com\/EricGuo5513\/text-to-motion\">https:\/\/github.com\/EricGuo5513\/text-to-motion<\/a> und <a href=\"https:\/\/dreambooth.github.io\/\">https:\/\/dreambooth.github.io\/<\/a><\/li>\n<li>Also da passiert eine Menge noch und es werden sicher noch einige Neuigkeiten auf uns zukommen<\/li>\n<\/ul>\n<h3>Fazit (01:01:42)<\/h3>\n<ul>\n<li>Wir k\u00f6nnen das schon jetzt f\u00fcr uns nutzen: als Inspiration, f\u00fcr Ausmalbilder mit genau den richtigen Motiven, Rollenspieler*innen nutzen es f\u00fcr Szenerien, Charakterbilder etc. - und insgesamt einfach aus Spa\u00df<\/li>\n<li>Man sollte halt Dinge wie Bias und Reproduktion von Vorurteilen im Kopf behalten, wenn man es nutzt<\/li>\n<li>Wir hatten viel spad damit das auszuprobieren und k\u00f6nnen empfehlen das auch mal zu machen<\/li>\n<li>Wir haben hier jetzt 3 Anwendungen uns n\u00e4her angeguckt: Craiyon, Midjourney, stable diffusion<\/li>\n<li>Es basiert darauf, dass Rauschen erkannt und verringert wird anhand des Textes<\/li>\n<li>Gesellschaftlich gibt es ein paar diskussionsw\u00fcrdige punkte, wie eben genannt: datenschutz, urheberrecht und kunst<\/li>\n<li>Wir sollten uns bei Technologie immer fragen: Was wollen wir damit, was kann sie und passt das irgendwie zusammen?<\/li>\n<\/ul>\n<h3>N\u00e4chste Folge: Erscheint Ende November (01:04:38)<\/h3>\n<ul>\n<li>Wir haben schon Ideen, wissen aber zum Zeitpunkt dieser Aufnahme noch nicht, wof\u00fcr wir uns entscheiden<\/li>\n<li>Wie schon zu dieser Folge: Das werdet ihr dann fr\u00fch genug sehen<\/li>\n<\/ul>\n<h3>Call to Action (01:04:58)<\/h3>\n<ul>\n<li>Wenn ihr uns weiter h\u00f6ren m\u00f6chtet, folgt uns auf Twitter unter <a href=\"https:\/\/twitter.com\/datenleben\">@datenleben<\/a> &amp; Mastodon unter <a href=\"https:\/\/chaos.social\/@datenleben\">@datenleben@chaos.social<\/a><\/li>\n<li>Oder besucht unsere Webseite: <a href=\"https:\/\/www.datenleben.de\/\">www.datenleben.de<\/a><\/li>\n<li>Hinterlasst uns gerne Feedback, wir w\u00fcrden uns dar\u00fcber sehr freuen<\/li>\n<li>Ihr k\u00f6nnt uns als Data Scientists auch Buchen f\u00fcr Analysen oder Projekte<\/li>\n<li>Habt ihr Fragen oder Themen, die euch interessieren? Dann schreibt uns!<\/li>\n<\/ul>\n<h3>Outro (01:05:42)<\/h3>\n<h3>Schlagworte zur Folge<\/h3>\n<p>K\u00fcnstliche Intelligenz, Maschinelles Lernen, Neuronale Netze, automatische Bildgenerierung<\/p>\n<h3>Quellen<\/h3>\n<ul>\n<li><a href=\"https:\/\/www.craiyon.com\/\">https:\/\/www.craiyon.com\/<\/a><\/li>\n<li><a href=\"https:\/\/www.microsoft.com\/en-us\/research\/blog\/turing-bletchley-a-universal-image-language-representation-model-by-microsoft\/\">Microsoft: Turing Bletchley. A universal Image-Language-Representation-Model by Microsoft<\/a><\/li>\n<li><a href=\"https:\/\/www.midjourney.com\/home\/\">https:\/\/www.midjourney.com\/<\/a><\/li>\n<li><a href=\"https:\/\/creator.nightcafe.studio\/\">https:\/\/creator.nightcafe.studio\/<\/a><\/li>\n<li><a href=\"https:\/\/beta.dreamstudio.ai\/dream\">https:\/\/beta.dreamstudio.ai\/dream<\/a><\/li>\n<li><a href=\"https:\/\/www.datenleben.de\/index.php\/2020\/09\/05\/folge-004-racial-profiling\/\">datenleben: dl004 racial profiling<\/a><\/li>\n<li><a href=\"https:\/\/www.katrin-raabe.de\/blog\/kuenstliche-intelligenz-kritische-gedanken-zu-midjourney\">Katrin Raabe: Kritische Gedanken zu Midjourney<\/a><\/li>\n<li><a href=\"https:\/\/www.youtube.com\/watch?v=1CIpzeNxIhU\">YouTube, Computerphile: How AI Image Generators Work (Stable Diffusion \/ Dall-E)<\/a><\/li>\n<li><a href=\"https:\/\/laion.ai\/blog\/laion-5b\/\">https:\/\/laion.ai\/blog\/laion-5b\/<\/a><\/li>\n<li><a href=\"https:\/\/github.com\/CompVis\/stable-diffusion\">GitHub, CompVis: stable diffusion<\/a><\/li>\n<li><a href=\"https:\/\/github.com\/CompVis\/stable-diffusion\/blob\/main\/Stable_Diffusion_v1_Model_Card.md#limitations-and-bias\">GitHub, CompVis: Stable Difussion v1 Model Card. Limitations and Bias<\/a><\/li>\n<li><a href=\"https:\/\/haveibeentrained.com\/\">https:\/\/haveibeentrained.com\/<\/a><\/li>\n<li><a href=\"https:\/\/www.heise.de\/news\/Private-Bilder-aus-Krankenakte-unerlaubt-als-Trainings-Daten-fuer-KI-verwendet-7274268.html\">Heise: Private Bilder aus einer Krankenakte unerlaubt als Trainings-Daten f\u00fcr KI verwendet<\/a><\/li>\n<li><a href=\"https:\/\/t3n.de\/news\/training-ki-modelle-mein-bild-1500599\/\">t3n.de: Wurde mein Bild zum Training von KI-Modellen genutzt? Diese Website sagt es dir<\/a><\/li>\n<li><a href=\"https:\/\/github.com\/EricGuo5513\/text-to-motion\">GitHub, EricGuo5513: Text to Motion<\/a><\/li>\n<li><a href=\"https:\/\/dreambooth.github.io\/\">https:\/\/dreambooth.github.io\/<\/a><\/li>\n<li><a href=\"https:\/\/freesound.org\/\">Freesound: Sounds, die hier verwendet wurden, stehen unter CC-0<\/a><\/li>\n<\/ul>\n","protected":false},"author":2,"featured_media":625,"comment_status":"open","ping_status":"open","template":"","meta":{"footnotes":""},"tags":[],"class_list":["post-626","podcast","type-podcast","status-publish","has-post-thumbnail","hentry","post"],"_links":{"self":[{"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/episodes\/626","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/episodes"}],"about":[{"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/types\/podcast"}],"author":[{"embeddable":true,"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/comments?post=626"}],"version-history":[{"count":6,"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/episodes\/626\/revisions"}],"predecessor-version":[{"id":644,"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/episodes\/626\/revisions\/644"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/media\/625"}],"wp:attachment":[{"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/media?parent=626"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.datenleben.de\/index.php\/wp-json\/wp\/v2\/tags?post=626"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}