Auf Seiten der Anbieter geht es dabei vor allem um die Gretchenfrage digitaler Plattformen: Inwieweit können und müssen sie Verantwortung für die auf ihnen geteilten Inhalte übernehmen? Nur allzu gerne verstecken sich die Betreiber hinter dem Argument, was die Nutzer auf der von ihnen gestellten Spielwiese treiben, liege weder in ihrem Verantwortungs- noch in ihrem Einflussbereich. Das ist allerdings genauso durchsichtig wie feige und falsch. Etwas überspitzt könnte sich ein Organisator illegaler Hundekämpfe genauso gut darauf berufen, nur eine soziale Arena für Treffen von Hundehaltern und ihren Tieren zu bieten. Denn auch die Plattformen verdienen gut an ihren Nutzern und deren Inhalten, inklusive der gefährlichen. Helfen doch gerade solche viralen Events wie die Challenges dabei, ganz im Sinne des Geschäftsmodells ihren Kundenstamm und dessen Aktivitäten nicht nur hoch zu halten, sondern auch weiter auszubauen.
In der realen Wirtschaft muss jeder Anbieter von Produkten – von der Zigaretten- und Alkoholindustrie vielleicht abgesehen – auch für Schäden geradestehen, die sie verursachen oder zumindest mit verantworten. Gerade in den USA, die auch die Heimat der meisten Plattformen sind, geht das sogar so weit, dass auf jedem Kinderwagen ein Warnhinweis angebracht sein muss, ihn nicht mit dem Kind darin zusammenzuklappen. Im Digitalen hingegen wollen und dürfen sich viele Plattformen dem gerne komplett verwehren, indem sie behaupten, die Inhalte entzögen sich alleine schon aufgrund der schieren Masse und Geschwindigkeit ihrer Kontrolle. Dabei beweisen sie selbst täglich das Gegenteil. Während Facebook etwa bei möglicherweise sexuell aufgeladenen Inhalten wie Bildern die auch nur eine entfernte Ähnlichkeit mit nackten Brüsten haben, schnell und akkurat mit der digitalen Schere zur Hand ist, soll dies auf anderen Gebieten, wie etwa nationalsozialistischer Symbolik und Hetze oder eben gefährlichen Mitmachspielchen nicht oder nur sehr eingeschränkt möglich sein. Manchmal werden solche Bereiche sogar ganz bewusst und gegen geltendes Recht ausgeklammert, um die entsprechenden Nutzer bei der Stange zu halten. So argumentierte etwa Facebook jahrelang ungeachtet des hiesigen Tatbestands der Volksverhetzung, den Holocaust zu leugnen verstoße nicht gegen die Nutzungsbedingungen des Netzwerks.
Dabei verlangt niemand eine hundertprozentige Sicherheit, die es gerade in diesem Rahmen tatsächlich nie geben kann. Aber deutlich mehr und vor allem ernsthaftere Anstrengungen wären sicherlich möglich. Schwierig daran ist wohl eher, dass sie dem eigenen Geschäftsmodell zuwiderlaufen. In der realen Welt wäre das erst gar keine Frage. Selbst Sportwagenhersteller müssen beispielsweise gewisse Kompromisse zwischen dem Machbaren und Sinnvollen eingehen, um ihre Gefährte auf die öffentlichen Straßen bringen zu dürfen. Insofern müsste vielleicht doch auch im digitalen Bereich von staatlicher Seite endlich genauer verstanden und hinterfragt werden, ob und in welchen Grenzen solche Geschäftsmodelle tatsächlich gesellschaftlich tragbar sind. Vielleicht wäre auch hier zumindest der ein oder andere Warnhinweis angebracht: »Diese App veruntreut Ihre Daten, macht süchtig und enthält potenziell lebensgefährliche Inhalte«.
Doch wie zuvor schon allzu oft gesehen, erklärte Tiktok angesichts des tödlichen Unfalls wieder einmal nur, dass man in diesem Fall keinen Hinweis auf Inhalte gefunden habe, die andere Nutzer zur Teilnahme an solchen gefährlichen Aktionen aufrufen könnten. Eine etwas fadenscheinig anmutende Erklärung der weltweiten Verbreitung der »Blackout Challenge« ihrer hässlichen Pendants. Wenn eine Zehnjährige solche Inhalte findet, sollte das für die hochgelobte künstliche Intelligenz erst recht ein Kinderspiel sein.