Tja, bin auch so ein schwer KI gefährdeter Mitbürger (hab zum Spass mal meine letzten 100 Suchanfragen durchgekuckt, zig verschiedene Themen aber nicht ein einziges was auch nur irgendwie in Richtungen geht wie es meine politische Stimmung beeinflussen könnte!) aber die Anfrage einfach mal an meinen Freund und Helfer Perplexity (wenn noch Zweifel - Benedikt Höwedes als Co, wtf? - würde ich halt noch paar andere KI Gesellen befragen, gibt ja ganze Horden zur Auswahl, alle mit Vor und Nachteilen wie meistens im Leben) weitergegeben:
PS: und, ist es wie so oft bei FC Bayern Themen totaler Müll (da bin ich auch sehr bei @alex, kein anderes Thema kriege ich so oft totale Grütze präsentiert!) oder mal wirklich ein Treffer bzgl der beiden Hauptmoderatoren? Falls nein, bringts welche andere KI auf die Reihe?
Der Grund hier ist wahrscheinlich, dass die KI „fcb TV“ nicht als eigenständigen Begriff erkennt sondern als „FCB“ und „TV“. Sie sucht also nach FCB, TV & Kommentatoren. Und das ist das häufigste Ergebnis. So würde ich mir das jedenfalls mit meinem begrenzten KI-Wissen erklären.
" Zusammenfassend: Die Kommentatoren und Experten stammen in der Regel aus dem eigenen Team des FC Bayern TV und werden häufig durch ehemalige Spieler des FC Bayern ergänzt."
Das spielt wohl auch eine Rolle, könnte man durch geeignete Fragenstellung aber wahrscheinlich umgehen.
Ich vermute, das Hauptproblem sind die Quellen:
Damit KI etwas „wissen“ kann, muss es vorher irgendwo veröffentlich worden sein. Am passendsten im Internet, aber auch Bücher, Zeitschriften, die zuvor eingescant worden sind, dienen als Wissens-Fundus. Wenn BayernTv also niemals etwas zu den Moderatoren veröffentlicht hat, können es die KI auch nicht wissen.
Soweit ich weiss, werden nur schriftliche Veröffentlichungen erfasst, Audio (z.B. Sprache) noch nicht. Ich lasse mich da aber gerne von jemand korrigieren, der näher „am Ball“ ist.
Nein, das darf nicht das Hauptproblem sein. Denn es wird immer etwas geben, was nicht beantwortet werden kann, wenn wie hier die Informationen nicht öffentlich verfügbar sind oder weil es auf eine Frage (noch) gar keine gesicherte Antwort gibt, oder, oder, …
Die korrekte Antwort wäre dann: „ich kann das nicht beantworten“. Nicht irgendein Quatsch, der offensichtlich nicht stimmt.
Grundsätzlich gebe ich dir recht, es existieren ja auch genügend Berichte, die belegen, dass die KIs dazu neigen, etwas zu erfinden (zu fantasieren), wenn sie keine ausreichende Quellen für die Anfrage haben. Das Problem ist also bekannt und sogar die KI-Firmen haben zugegeben, dass ihre Entwickler Anstrengungen unternehmen, um ihren KI-Modellen das möglichst auszutreiben.
In diesem Fall hat aber Gemini nicht fantasiert, sondern nur das allgemein bekannte richtig geantwortet, was die konkrete Frage aber eben nicht beantwortet hat.
Das schlichte „ich weiss das nicht“ scheint von der Entwicklerseite der KIs als Antwort leider nicht vorgesehen zu sein.
Meine Antworten und mein „Quatsch“ bezog sich auch vorallem auf die Perplexity-Antwort. Die Gemini-Antwort dagegen würde ich auch nicht als „unbrauchbar“ bezeichnen. Denn wenn die KI nur das dir bekannte wiedergibt, ist das ein guter Hinweis, dass eben nicht mehr bekannt ist.
Und da ChatGPT mir in ähnlicher Form geantwortet hat, kann man daraus eine hohe Wahrscheinlichkeit ableiten, dass es schlicht nicht öffentlicht bekannt gegeben wurde. Was doch auch eine Erkenntnis für @petershaw’s Ausgangsfrage ist. Und wenn es ihn dann noch brennender interessiert, sollte er einfach mal ganz altmodisch auf der Kontaktseite nachfragen (übrigens: der ChatBot auf der Seite versteht die Frage nicht ).
Man weiß nicht, ob es so kommt (viel Spekulatius). Viel anderes erwartet hab ich allerdings auch nicht. Ich reg mich nicht mehr darüber auf, ist vergebens. Schaut euch die USA an, das wird in Zukunft bei der Vermarktung Vorreiter sein.
Erstmal abwarten, ob man das dann überall mit den „normalen“ Abos schauen könnte.
Es wäre mMn durchaus vorstellbar, dass man bei dem/den jeweiligen Streamer dann noch ein extra Sport-Abo dazubuchen muss.