Laden...

Urheberrechtsschutz versus freie Meinungsäußerung: #NoUploadFilter

Erstellt von herbivore vor 5 Jahren Letzter Beitrag vor 5 Jahren 5.539 Views
herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren
Urheberrechtsschutz versus freie Meinungsäußerung: #NoUploadFilter

Hallo Community,

ich bin gerade auf folgenden Blog-Eintrag gestoßen:

https://blog.wikimedia.de/2018/05/02/danke-aber-das-reicht-nicht-nouploadfilter/

Darin wird beschrieben, wie sich die neue Bundesregierung entgegen der Festlegung des gerade erst beschlossenen Koalitionsvertrags im Rat der EU Upload-Filter befürwortet. Mit Upload-Filter sollen Urheberrechtsverletzungen schon beim Upload von Inhalten auf (fast) alle Plattformen (also nicht nur kommerzielle Soziale Medien) automatisch verhindert werden.

Ähnlich wie bei der geplanten Filterung oder Blockierung von kinderpornographischen Inhalten (siehe Zugangserschwerungsgesetz), geht es darum, die Verbreitung von strafbaren und anderen rechtswidrigen Inhalten bzw. die rechtswidrige Verbreitung von grundsätzliche legalen Inhalten zu verhindern. Im Kern also eine gute Sache, die jedoch wie schon bei der Kinderpornographie mit umstrittenen, weil möglicherweise ungeeigneten oder sogar schädlichen Maßnahmen angegangen werden soll.

Beim Zugangserschwerungsgesetz gab es eine so große Protestwelle im Netz, dass "das 2010 in Kraft getretene Gesetz [...] de facto nicht angewendet und im Dezember 2011 vorzeitig aufgehoben [wurde]".

Ich bin nun sicher nicht derjenige, der gleich Zensur schreit, wenn es um die Verhinderung von Straftaten und anderen Rechtsverletzungen geht. Zum einen, weil dann in meinen Augen gar keine Zensur ist, zum anderen, weil ich auch den Nutzen sehe. Allerdings scheint die Etablierung von technischen und organisatorischen Maßnahmen zur möglicherweise gefährlichen Mode zu werden.

Denn auch beim kürzlich in Kraft getretenen Netzwerkdurchsetzungsgesetz geht es darum, die Verbreitung von strafbaren und anderen rechtswidrigen Inhalten zu verhindern. Hier war der Anlass die zunehmende Verbreitung von Hasskommentaren und von Fake News, von der ich mir auch wünsche, dass sie deutlich zurückgedrängt werden kann (*). Hier sind es Menschen (Mitarbeiter der Sozialen Medien) und nicht Maschinen, die entscheiden. [EDIT]Wenn auch nur am Rande gegen Fake News, weil die in vielen Fällen gar nicht oder zumindest nicht offensichtlich rechtswidrig sind. Die Fake News waren zwar einer der Anlässe des Gesetzes, sind aber bei der Umsetzung aus verfassungsrechtlichen Gründen weitgehend durchs Raster gefallen.[/EDIT]

Trotzdem wird mehr und mehr eine Infrastruktur geschaffen, die auch geeignet ist, lediglich unerwünschte, aber nicht gleichzeitig strafbare oder auch nur rechtswidrige Inhalte zu unterdrücken.

Im Blogeintrag heißt es dazu: "Autoritäre Regime weltweit schauen bereits interessiert nach Europa, um sich da eventuell ein Vorbild zu nehmen".

Bei einer sehr strengen Auslegung von Urheberrechtsverletzungen würde möglicherweise sogar mein Beitrag unterdrückt werden, weil ich das Zitat im Absatz über das "Zugangserschwerungsgesetz" vermutlich nicht explizit genug als von Wikipedia stammend gekennzeichnet habe und damit vielleicht - sehr formal gesehen - rechtswidrig fremde Inhalte übernommen und veröffentlicht habe.

Wie ihr seht, schwanke ich also zwischen Nutzen und Schaden. Falls Ihr eine Tendenz in die eine oder andere Richtung herauslest, wisst ihr mehr als ich selbst. Ich habe versucht, beiden Richtungen angemessenen Raum zu geben.

Gut, vielleicht klingt eine gewisse Besorgnis durch. Die bezieht sich aber eher darauf, wie eine in guter Absicht geschaffenen Infrastruktur von einer zukünftigen Regierung missbraucht und gegen die Bürger eingesetzt werden könnte. Und wir wissen alle, dass es im Bereich des Möglichen ist, dass eine Regierung an die Macht kommen kann, die eigene Interessen über die Ihrer Bürger stellt. Um es mit den (zugegeben aus dem Zusammenhang gerissenen) Worten von Douglas Adams zu sagen: "Es gibt eine andere Theorie, nach der das schon passiert ist." Davon abgesehen habe ich noch keine Meinung, ob bei den Effekten durch die Einführung Schaden oder Nutzen überwiegt.

Wie ist eure Meinung? Überwiegt der Nutzen oder Schaden von Upload-Filtern? Wie sind die anderen (automatischen und/oder manuellen) Filter-/Sperr- oder Löschmechanismen zu bewerten? Sind sie eine Gefahr für die Grundrechte und die Demokratie? Oder stärken sie im Gegenteil den Rechtsstaat? Was denkt ihr?

herbivore

(*) Auf myCSharp.de klappt dass durch die Moderation und durch die klare Haltung der Community gegen Hass und Fake in den Antworten ja ganz gut.

1.029 Beiträge seit 2010
vor 5 Jahren

Hi,

den Upload-Filter halte ich technisch für eine der ungeschicktesten Methoden das Problem zu lösen. Ein solcher Filter nimmt von Natur aus zu viel raus und hat damit mehr als nur das Potenzial freies Wissen und Meinungsäußerung auszuhebeln bzw. zu behindern - das ist mehr eine natürliche Konsequenz. Ab davon verstehe ich nicht, weshalb man es derartig versucht.

Zum einen gäbe es technische elegantere und wesentlich weniger invasive Methoden wie die im Artikel genannte API - zum anderen - wer sind wir, dass wir ein Computerprogramm entscheiden lassen ob das nun eine Urheberrechtsverletzung ist oder nicht? Dafür gibt es unser Rechtssystem - und wer es für nötig hält es einzusetzen - dem wird auch heute bereits geholfen.

Obendrauf kommt, dass so eine Pflicht für Neuanfänger, Startups & Co. in meinen Augen einen absolut unfairen Nachteil darstellt - ist ja schön und gut, dass Facebook & Co. es sich leisten können eine solche Technologie neben dem eigentlichen Produkt zu entwickeln, weil diese schon längst groß genug dafür geworden sind - wer was neues aufbauen wollte und sowas auf's Auge gedrückt bekommt wird im Vergleich mit den großen in meinen Augen massiv benachteiligt.

Des Weiteren finde ich es unverhältnismäßig die Arbeit von Straftäter, Opfer, Anwälten und Gerichten jemandem auf's Auge zu drücken, der schlicht nichts dafür kann.

Zum Thema Fake-News:
Es ist ja vll nett gedacht - aber ich für meinen Teil habe aktuell ein massives Problem damit, wenn jemand vorschreiben kann was die Wahrheit ist lang bevor sich derjenige überhaupt sicher sein kann, dass dem so überhaupt ist. (Das bietet in meinen Augen schlicht zu viel Missbrauchspotenzial und gefährdet bereits im Grundsatz die Meinungsfreiheit) Zumal ich es in der heutigen Zeit ehrlich gesagt auch meist als vollkommen unangemessen betrachte, dass eine Seite die volle Wahrheit für sich beansprucht. Weiter gesponnen würde dadurch sogar die Wissenschaft massiv eingeschränkt - nur weil ggf. vor ein paar Jahren mit älteren Theorien, Messgeräten & Co. eine falsche Wahrheit definiert wurde.

Die einzig richtige Vorgehensweise hierzu wäre (Medien-)Bildung gewesen - aber so stellt man sich in der Tat auf eine Stufe mit Diktatoren - und das ohne jede Not.

LG

B
357 Beiträge seit 2010
vor 5 Jahren

Ich sehe solche Uploadfilter in letzter Konsequenz ausschließlich negativ und überdies auch völlig nutzlos. Denn was wird genau passieren? Es werden sich Plattformen finden, die es z.T. auch heute schon gibt, die fernab jeder staatlichen Zugriffsmöglichkeit einen Upload anbieten, egal von was. Wie auch heute schon, sind diverse Forenbetreiber dann nur noch als Linklisten zu verstehen, technisch also überhaupt kein Upload. Genau genommen ändert sich, wie schon beim Zugangserschwerungsgesetz überhaupt gar nichts, man muss nur ggf. eine kleine technische Hürde mehr nehmen, was durch Tools und Artikel so einfach wird, dass auch der dümmste damit klarkommt.

Das Ergebnis wird letztlich sein, dass der Gelegenheitstäter oder Zufallstäter die ganze Härte des Gesetzes zu spüren und kein Bein mehr auf den Boden bekommt, während die organisierte Kriminalität nur darüber lacht und weiter macht wie bisher.

Wie schon erwähnt, wird außerdem eine Infrastruktur geschaffen, bei der irgendeinem nur mal irgendwann einfallen muss, was er nicht mehr im Netz sehen will. Sei es irgendein christlicher Fundamentalist, der ab sofort sämtliche Pornografie aus dem Netz haben will, oder auch irgendwelche rechtskonservative, die jegliche Kritik verschwinden lassen wollen. Irgendwie kann man sich dabei immer auf Urheberrechte oder sonstwas berufen und jedem ans Bein pinkeln, wenn einem danach ist. Und genau, weil wir eine solche Entwicklung nicht voraussehen können, sollten wir uns gar nicht erst mit der Erstellung genau solcher Werkzeuge beschäftigen - das Missbrauchspotential ist nicht nur gegeben, sondern gleichzeitig auch sehr hoch.

Insofern handelt es sich in meinen Augen hauptsächlich mal wieder um Nebelkerzen, die von der Bundesregierung geworfen werden. Einfach um zu zeigen "Wir tun wirklich total irgendwas und denken dabei vor allem an die Kinder!". Unter fachkundigem Personal macht sich die Regierung mit sowas zum Gespött, aber leider sind genau wir absolut nicht in der Mehrheit. Diese denkt eher "Na endlich tut mal jemand was, tolle Regierung!". Diese Meinung liest man zwar nur selten in Foren und ähnlichem, aber gerade die ältere Generation, die auf solchen Medien kaum unterwegs ist, denkt so.

5.657 Beiträge seit 2006
vor 5 Jahren

Der CCC hat sich auch dazu geäußert: Offener Brief: Europaische Upload-Filter-Regelung verhindern

Weeks of programming can save you hours of planning

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo zusammen,

vorneweg: Den Absatz mit den Fake News hatte ich leider das etwas unklar formuliert. Ich habe ihn oben editiert. Kurz gesagt: Das Gesetz ist zwar unter anderem unter dem Eindruck von Fake News entstanden, greift aber aus verfassungsrechtlichen Gründen absichtlich kaum dagegen. Mit den Gesetz soll und wird also kein Wahrheitsministerium eingeführt werden.

Vielen Dank für eure Rückmeldungen. Die sind ja ziemlich eindeutig. Deshalb lasst mich mal einen konkreten Fall schildern, in dem ich einen Uploadfilter für sinnvoll halte, nämlich dann, wenn (vorzugsweise gefakte) Fotos (oder auch Rachepornos), die eine bestimmte Person in rufschädigender oder bloßstellender Weise zeigen, immer und immer wieder neu hochgeladen werden. Nach aktueller Rechtsprechung hat der Betroffene zwar ein Recht auf Löschung, muss aber jeden neuen Beitrag melden. Eine vollkommen unlösbare Aufgabe, wenn man das Pech hat, dass das Foto viral geht (und bleibt). Und gerade dann ist es ja ein Desaster für die Person, bis hin zu Gefahren für Leib und Leben. Da wäre es m.E. gut und wünschenswert, eigentlich sogar geboten, wenn die Betroffenen schon beim Upload(versuch) geschützt werden.

Wie seht ihr diesen Fall?

Fallen euch andere Fälle ein, in denen ihr Upload-Filter für sinnvoll erachtet?

Mir ist auch klar, dass wenn Upload-Filter kämen, sie nicht auf wenige eindeutig sinnvolle Fälle beschränkt wären. Das sollte uns aber nicht daran hindern, diese sinnvollen Fälle erstmal zu sammeln.

herbivore

T
708 Beiträge seit 2008
vor 5 Jahren

Hallo herbivore,

Dein Beispiel ist sicherlich die Parade für einen Upload-Filter.
Jeder kann nachvollziehen, dass dies für Betroffene hilfreich ist.

Das muss aber erstmal beantragt & nachgewiesen werden. Bis diese Mühlen mahlen, haben sich andere Kanäle gefunden, die eine Verbreitung ermöglichen. Messenger, die zum Teil mit Ende zu Ende Verschlüsselungen eine Filterung per se nicht ermöglichen.

Dann passiert, was immer passiert:
Firmen beanspruchen die Filterung für sich und Zweckentfremden den Nutzen.

Privatpersonen verwenden Alternativen um z.B. ein Video an eine Whatsapp/Telegramm/Threema/ect.-Gruppe zu verschicken.

Irgendwann meldet sich ein bayrischer Minister mit der Idee, diese Filterung doch auch für weitere Zwecke, wie z.B. die Suche nach Flüchtigen nutzen zu wollen. Verbotene Dinge (Drogen, Waffen, ect.) im Hintergrund auf Fotos zu analysieren.
(Aktuell vielleicht noch etwas weit hergeholt)

Das Resultat ist eine Instanz, die nicht mehr dem Zweck dient, sondern Unternehmen und Politikern. Die können im Gegensatz zu den schutzbedürftigen Privatpersonen nämlich Druck ausüben.
Leider ist das in meinen Augen die realistischste Entwicklung dieses UploadFilters und deshalb bin ich dagegen. Auch wenn es mir für die betroffenen von Hetz-Kampagnen, Cyber-Mobbing oder Rache sehr leid tut. Es wird keine Abhilfe schaffen!

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo zusammen,

was mich ein bisschen erstaunt, ist die - grundsätzlich von mir in diesem Forum sehr geschätzte - Sachlichkeit und Gelassenheit im Vergleich zu damals, als es um die Sperren wegen der Kinderpornographie geht. Vielleicht irre ich mich auch oder verwechsele das, aber ich kann mich an viel hitzigere und emotionalere Diskussionen erinnern. Zumindest steht ja fest, dass die Kinderpornosperren durch die damaligen Proteste verhindert wurden.

Vor dem Hintergrund, dass die Ablehnung der Filter hier sehr klar und eindeutig und bisher auch einstimmig ist, wundert mich die Ruhe etwas. Liegt das vielleicht daran, dass das Thema Filter/Sperren/Löschungen in der einen oder anderen Form immer und immer wieder auf die politische Agenda kommt? Und ihr irgendwann resigniert, weil "die da oben" doch machen, was sie wollen? Oder gibt es andere Gründe?

Oder habt ihr alle schon eure Ablehnung unter #NoUploadFilter getwittert?

herbivore

P
1.090 Beiträge seit 2011
vor 5 Jahren

Also ich bin grundlegend auch gegen einen Upload Filter. Argumente wurden ja schon genug genannt.

Um mal einen anderen Aspekt in Spiel zu Bringen.
Was ich vielleicht ganz interessant fände, wenn der Staaten oder die UN eine API Bereitstellen würde, bei der ich Sachen auf Verstöße Prüfen könnte wenn ich möchte.
Und dann selber entscheide, ob ich die Inhalte freigebe.

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

T
2.219 Beiträge seit 2008
vor 5 Jahren

@Palin
Kann ich nicht nachvollziehen, wie das funktionieren soll.
Es geht hier ja primär um Inhalte, die offensichtlich gegen das Urheberrecht verstoßen.
Wenn du diese gegen eine API prüfen würdest und diese dir dann meldet, dass der Inhalt gegen ein Urheberrecht verstößt, musst du es ja zwangsweise blockieren.

Sonst würdest du ja wissentlich den Content bereitstellen, obwohl durch die Prüfung dann klar wäre, dass dieser gegen das Urheberrecht verstößt.

Oder meinst du damit, dass du die Prüfung via API nur optional machen würdest?

Ich stelle mir so oder so die Frage, wie dies technisch realisiert werden soll.
Würde man sämtliche Dateien vor dem Upload hashen und diese dann gegenprüfen müssen, würde dies insgesamt unsinnig viel Rechenleistung verbrauchen.
Also in der Summe aller Uploads + das Vorhashen der Referenzdateien.
Und sobald das Hash Verfahren nachweislich Kollisionen hat, müste das Verfahren aktualisiert und sämtliche Referenzdateien neu gehasht werden.
Dies dürfte bei der aktuellen Menge an Dateien(Musik, Filme, Dokumente etc.) schon dermaßen viel Rechenleistung fressen, dass es schon an Irrsinn grenzt sowas umsetzen zu wollen.

Vorallem müsste diese API dann massive Resourcen fahren um die Menge an Abfragen innerhalb Europas abzuarbeiten und dann noch für zukünftige Änderungen ggf. sogar kompatibel bleiben.
Den wie bekannt ist, gibt es immer wieder Anwendungen die irgendwann nicht mehr geupdatet werden und dann noch weiterhin mit der API arbeiten müssten.

Der Grundgedanken mag zwar gut und richtig sein, aber die technische Machbarkeit und Sinnhaftigkeit ist hier sehr fraglich.
Da es aber schon aus vielen Bereichen gute Gegenargumente und Bedenken gibt, hoffe ich mal, dass das Thema in der Schublade verschwindet oder wenigstens besser durchdacht wird.

T-Virus

Developer, Developer, Developer, Developer....

99 little bugs in the code, 99 little bugs. Take one down, patch it around, 117 little bugs in the code.

B
357 Beiträge seit 2010
vor 5 Jahren

Ich zerbreche mir hauptsächlich den Kopf über die technische Machbarkeit von sowas. Der Nutzen, wie herbivore beschrieben hat, ist zwar deutlich sichtbar, aber mMn kaum machbar. Es wären Referenzen nötig, sprich eventuelle Opfer müssten das zu beanstandende Material selbst bereitstellen. Um hier auf der Filterseite Missbrauch vorzubeugen wäre eine weitere Prüfinstanz nötig, bevor etwas tatsächlich in den Filter wandert.

Nach diversen Datenpannen, auch in riesigen Konzernen, ist mein Vertrauen in solch eine Filter-Maschinerie da nur sehr eingeschränkt vorhanden. Hier würde ein Datenleck das Kind mit dem Bade ausschütten und die Verbreitung erst richtig fördern (denn alles ist ja eigentlich gefilterter Inhalt - warum auch immer, das interessiert die meisten an der Stelle nicht mal).

Zudem wird Content dann halt einfach da hochgeladen, wo niemand wirklich Zugriff drauf hat. Dateien verschlüsselt auf Portale hochladen und erst dort entschlüsseln ist jetzt ja auch kein Hexenwerk und würde die Filter-Infrastruktur zu einem gigantischen Moloch aufblähen, der aber doch nur ein Zahnloser Tiger ist und bestenfalls Inhalte von technisch völlig Ahnungslosen ausfiltern. Gut, man könnte hier argumentieren, dass gerade bei Rachepornos oft von technisch Ahnungslosen ausgegangen werden kann, aber auch hier werden sich Portale auftun, die es gerade dieser Klientel sehr einfach macht, Dinge hochzuladen, die eigentlich gefiltert werden sollten.

Der Gedanke dahinter mag lobenswert sein, auf technisch nicht lösbares zu bestehen ist dann aber wieder nur bedingt klug. So kennt man es zwar von diversen Regierungen, aber man könnte ja mal auf die Leute hören, die sich tatsächlich damit auskennen. 😉

Edit sagt: T-Virus hat im Prinzip meine Gedankengänge schon vorher gepostet...

P
1.090 Beiträge seit 2011
vor 5 Jahren

@T-Virus
die großen Firmen wie google, Facebook usw. prüfen ja jetzt schon teils automatisiert die Inhalte.
Es werden Gesichtserkennungen bei Fotos gemacht, individualisiert Werbung und Beiträge vorgeschlagen usw. Das funktioniert auch alles von der Rechenleistung her.
Das ist für kleine Firmen eigentlich nicht zu realisieren.

Es geht auch nicht darum, das darüber Verhindert werden soll, das Seiten Betreiber bewusst „Verbotene“ Inhalte zulassen.

Sondern das kleine Seitenbetreiber eine einfache Möglichkeit haben geuplodete Inhalte Prüfen zu lassen und im Anschluss freizugeben (Kann automatisch mit einer Task geschehen).
Im 1. Schritt würde es wirklich einfach reichen einen Hash Wert zu übertragen und zu vergleichen.
Bekomme ich ein OK zurück, darf ich das Content erst mal auf meine Seite stellen ohne Rechtliche Folgen befürchten zu müssen. (Sollt es sich später herausstellen, dass der Inhalt trotzdem Verboten ist, muss ich ihn natürlich Löschen). Bekomme ich kein OK muss ich gegebenen falls die Datei übertragen, damit weitere Prüfungen durchgeführt werden. Bzw. Ich bekomme schon eine Antwort, mit zurück, wo das Problem liegt. „Vom Verfassungsschutz in Deutschland verbotenes Symbol“. Wenn ich da ein kleiner Seitenbetreiber in den USA bin und nur den zugriff aus den USA zu lasse kann ich das Ignorieren.

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo zusammen,

da ihr eher die technisch Machbarkeit als die politische Dimension (um die es mir mehr ging, diskutiert), lass ich mich mal für dem Moment auch drauf ein.

In Rechenleistung und Hash-Kollisionen sehe ich nun gar kein Problem. So ein Upload-Server langweilt sich vermutlich CPU-mäßig ohnehin und Hash-Kollisionen sind so selten, dass man in diesem Fällen einfach weitere (inhaltliche) Prüfungen nachschieben kann. Der Hash ermöglicht jedenfalls in Quasi Nullzeit unter Milliarden oder mehr Dateien die eine (oder bei Kollisionen die zwei/wenigen) Datei(en) zu finden, mit der/denen verglichen werden muss.

Das Filter gut und böse nie 100%ig exakt separieren können, ist klar. Und dass sie umgangen werden können auch. Auch Menschen sind nicht unfehlbar; von Maschinen wir das aber nur zu gerne verlangt. Die technische Frage lautet eigentlich immer nur: funktioniert ist es gut genug? Oder vielleicht sogar nur: funktioniert es mit besser als ohne? (Politisch/gesellschaftlich wäre hier natürlich auch nach den Gefahren zu fragen. Und politisch fände ich es auch eher bedenklich, wenn die Filter zu gut/zu perfekt funktionieren würden, als wenn sie es zu schlecht täten).

Was die kleinen Seitenbetreiber angeht: Wenn solche Filter Pflicht würden, gäbe es sicher auch schnell Anbieter, wo man sich die Filterdienstleistung einkaufen kann. Ein kleiner Seitenbetreiber bräuchte diese Expertise sicher nicht im eigenen Unternehmen.

Noch ein kleine Überlegung am Rande: Das Urheberrecht ist etwas immaterielles. Es liegt also nie an dem Werk oder einer Kopie des Werkes an sich, ob ich diese(s) veröffentlichen darf oder nicht. Nehmen wir ein Bild von einen (z.B. befreundeten) Künstler A. Wenn ich es einfach so bei Facebook hochlade: böse = Urheberrechtsverstoß. Wenn ich A vorher um Erlaubnis frage und er sagt "jo, mach ruhig" (also rein verbal ohne irgendein Schriftstück): gut = kein Urheberrechtsverstoß. Wenn ich ein Logo einer Firma in einem eigenen Werk verwende: böse = Urheberrechtsverstoß. Ist mein Werk jedoch eine Persiflage auf die Firma: gut = kein Urheberrechtsverstoß. Wenn ich einen Absatz aus einem fremden Buch kopiere: böse = Urheberrechtsverstoß. Wenn ich den Absatz jedoch als Zitat, mit dem ich mich auseinandersetze, in meinem eigenen Werk einfüge: gut = kein Urheberrechtsverstoß.

Es liegt also nicht in erster Linie an dem Werk, welches ich kopiere/veröffentliche, sondern daran, ob ich das Recht oder die Erlaubnis dazu habe. Gut, nun kann man sagen, zu 99,9% sollen die Filter vorm Raubkopieren bzw. Raubveröffentlichen kommerzieller Werke schützen, bei denen jede Verbreitung auf Sozialen Medien unerlaubt erfolgt, trotzdem finde die Trennung von Werk und Recht/Erlaubnis bedenkenswert, wenn man überlegt, solche Filter einzurichten.

herbivore

6.911 Beiträge seit 2009
vor 5 Jahren

Hallo,

mir gefallen diese Filter nicht. So ein Automatismus ergibt eine binäre Entscheidung und das wars. Kommt der Filter zum Ergebnis dass ein Verstoss vorliegt, ohne zu wissen dass ich die Erlaubnis für die Kopie habe, was dann? herbivore hat dazu ja passende Beispiele genannt.

Oder A ist der Urheber. A gibt B eine Kopie, B veröffentlicht diesen. Kann dann A, als Urheber, sein Werk nicht mehr veröffentichen das es der Filter verbietet?

Eine "Moderation" durch Menschen hat den Vorteil, dass diskutiert und eine Lösung gefunden werden kann. Es ist also keine rein binäre Entscheidung.
Es ist auch klar, dass es für das www keine Moderation geben kann, die jeden Upload prüft. Dadurch ergibt sich eine Latenz bis eine Rechtsverletzung korrigert werden kann -- falls überhaupt. Dies finde ich aber besser als eine pauschale Annahme eines Verstossen, die dann durch die Prüfung vom Filter negiert werden kann und der Upload stattfinden kann.

in dem ich einen Uploadfilter für sinnvoll halte, nämlich dann, wenn (vorzugsweise gefakte) Fotos (oder auch Rachepornos), die eine bestimmte Person in rufschädigender oder bloßstellender Weise zeigen, immer und immer wieder neu hochgeladen werden

In solchen Fällten könnte auch die Anzahl der Kopien (sofern sie sich ermitteln lässt, sonst geschätzt) als Multiplikator für das Strafmass dienen. Das schreckt wahrscheinlich mehr ab, als ein Filter der den Upload verbietet und leicht umgangen werden kann.
Wo würde hier die Grenze zwischen sinnvollen Einsatz eines Filter und "no filter" gezogen werden?

Das Urheberrecht sowie auch die Persönlichkeitsrechte sind wichtig und gehörren geschützt. Diese jedoch per Filter zu erzwingen ist der falsche Weg.
Ich kann mir auch kaum vorstellen, dass der Filter Werke berücksichtigt die gemeinfrei werden (Regelschutzfirst endet od. der Urheber gibt es frei).

Leider wird es so sein, dass so ein Filter in der ein od. Form kommen wird. Total Kontrolle über die Bürger scheint wichtiger zu sein als deren Anliegen.

mfG Gü

Stellt fachliche Fragen bitte im Forum, damit von den Antworten alle profitieren. Daher beantworte ich solche Fragen nicht per PM.

"Alle sagten, das geht nicht! Dann kam einer, der wusste das nicht - und hat's gemacht!"

P
1.090 Beiträge seit 2011
vor 5 Jahren

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo zusammen,

Regt sich bis dahin spürbarer Protest bei den EU-Bürgern, werden die Abgeordneten den Entwurf vielleicht noch einmal für Änderungsanträge öffnen.

das ist ja, was ich schon weiter oben meinte: Jeder einzelne von uns und damit wir alle zusammen als Bürger haben es durchaus mit in der Hand. Ein massives Anwachsen der Verwendung des Hashtags #NoUploadFilter würde mutmaßlich in der Politik bemerkt werden.

herbivore

T
2.219 Beiträge seit 2008
vor 5 Jahren

Jetzt heißt es noch abwarten und hoffen.
Da jetzt noch das Parlament am 4.Juli das noch verhindern kann, können wir noch hoffen.
Im aller schlimmsten Fall muss dies dann erst wieder Jahre lang vor dem EuGH verhandelt werden.

Ich hege noch Hoffnung, dass sich diese beiden Themen am 4.Juli doch noch durch das Parlament erledigt!

T-Virus

Developer, Developer, Developer, Developer....

99 little bugs in the code, 99 little bugs. Take one down, patch it around, 117 little bugs in the code.

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo T-Virus,

Jetzt heißt es noch abwarten und hoffen.

oder eben besser noch: handeln und hoffen.

herbivore

T
2.219 Beiträge seit 2008
vor 5 Jahren

Ich hatte zwar von Mozilla und co. einige Mails bekommen, diese haben sich aber nur mit der Abstimmung von Gestern beschäftigt.
Entsprechend fehlt mir etwas der Anschluss wo man nun ansetzen müsste.

Hast du hier Infos an welcher Stelle man ansetzen sollte?
Aktionismus sollte auch geplant sein 😃

Nachtrag:
Was gestern auch etwas untergegangen sein dürfte ist, wie sich die Mehrheit für Artikel 11/13 zusammen setzt.
Bei Golem findet sich ein entsprechendes Update.
Gerade die EU Gegner und Nationalisten stimmen für Artikel 11/13.

Die beführwortenden Parteien waren:
Christdemokratie (EVP)
EU-Gegnern (EKR)
Wirtschaftsliberalen (ALDE)
Nationalisten (ENF)

Aus meiner Sicht absolut bezeichnend.
Die EU Gegner und Nationalisten überraschen mich hier aber von den Christdemokraten und den Wirtschaftsliberalen habe ich dies ja erwartet.

Info:
https://www.golem.de/news/urheberrrecht-eu-ausschuss-fuer-leistungsschutzrecht-und-uploadfilter-1806-135041-2.html

T-Virus

Developer, Developer, Developer, Developer....

99 little bugs in the code, 99 little bugs. Take one down, patch it around, 117 little bugs in the code.

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo T-Virus,

was ist daran geplant, wenn ein Thema viral wird? Normalerweise gar nichts(*). Und trotzdem passiert es. Als Summe der Einzelentscheidungen und Einzelhandlungen. Natürlich muss das Thema einen Nerv treffen, die Leute ansprechen und bewegen. Bei den schon angesprochenen KiPo-Sperren war das der Fall(**). Da haben so viele Leute getwittert, gebloggt und in Foren diskutiert, dass die Medien darauf aufmerksam wurden und auf den Zug aufgesprungen sind. Und dann die Politik mit der Aussetzung und letztlich Abschaffung des Gesetzes reagiert hat. Das kann bei grundsätzlich jedem Thema passieren, bei dem die Leute ihre Freiheit oder andere Rechtsgüter bedroht sehen. So auch bei den UploadFiltern.

Ob das passiert kann ich nicht sagen. Wenn keiner was macht, passiert auch nichts. Wenn man anfängt, besteht zumindest eine Chance. Und des kostet ja nichts, einen entsprechenden Tweet abzusetzen. Es kommt noch nicht mal darauf an, dass besonders viele ihn lesen. Alleine dadurch, dass ein Hashtag in die Top-Liste kommt, entsteht Aufmerksamkeit.

Natürlich kannst du gerne auch Aktionen planen. Was man (sonst) so alles machen kann, steht z.B. in Amazon ermöglicht Live-Gesichtserkennung für ganze Städte.

herbivore

(*) Natürlich gibt es Leute, die versuchen, bestimme Themen geplant viral zu verbreiten, indem sie Kriterien erfüllen, die als Voraussetzung für virale Verbreitung gelten, aber zum einen klappt das nicht immer, zum anderen gibt es viele Themen, die viral werden, ohne dass das vorher abzusehen oder geplant war.

(**) Ein weiteres Beispiel sind die damals geplanten Einschränkungen der Panoramafreiheit, siehe z.B. Die Panoramafreiheit ist bedroht, die ebenfalls durch Proteste abgewendet werden konnten.

16.806 Beiträge seit 2008
vor 5 Jahren

Ein massives Anwachsen der Verwendung des Hashtags #NoUploadFilter würde mutmaßlich in der Politik bemerkt werden.

Really...?

Ich glaube da ist es wirksamer E-Mails an Politiker schreiben.
(ich hab sogar schon antworten drauf bekommen!)

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo Abt,

dass eine ganze Reihe von viel verwendete Hashtags von den Medien aufgegriffen wurden, dürfte allgemein bekannt sein. Prominentestes und hartnäckigstes Beispiel dürfte #meeto sein, ist aber bei weitem kein Einzelfall. Darüber hinaus benutzen Journalisten und Social Media Redaktionen gezielt (zum Teil spezielle journalistische) Tools, um Trends in sozialen Netzwerken zu erkennen und auch darüber zu berichten.

Das ändert aber natürlich nichts daran, dass jeder selbst entscheiden kann und soll, welche Maßnahme(n) er für am wirksamsten hält.

herbivore

B
357 Beiträge seit 2010
vor 5 Jahren

Sehr erfreulich erst mal. Aber mal schauen, was man sich als nächstes ausspinnt und wer als nächstes bestochen wird, damit man das doch noch durchgewunken bekommt.

5.657 Beiträge seit 2006
vor 5 Jahren

Man beachte aber folgende Punkte:

Mit knapper Mehrheit von 318 zu 278 Stimmen bei 31 Enthaltungen

Es gab also jede Menge Parlamentarier, die die Vorlage für eine gute Idee gehalten haben.

Mit dem "Nein" ist das Dossier wieder offen und die Abgeordneten können über die Sommerpause neue Änderungsanträge zum ursprünglichen Entwurf der EU-Kommission ausarbeiten.

Das heißt, es geht weiter.

Weeks of programming can save you hours of planning

B
357 Beiträge seit 2010
vor 5 Jahren

Ich fürchte halt, dass sich nicht viel in die andere Richtung bewegen wird. Leute wie Avel Voss werden jetzt ein paar Wochen mit dem Fuß aufstampfen, sagen, wie fies und ungerecht alles ist, und dann einen fast unveränderten Entwurf nochmal einreichen. Ewig können die Gegner ja nicht mobil machen und im X-ten Anlauf gehts dann durch.

Aber schauen wir mal, was die nächsten Wochen bringen. Bisher sind die Wortführer des Entwurfs allerdings nicht wirklich mit guten Argumenten aufgefallen, sondern eher mit Phrasendrescherei und abstrus zusammengezimmerten Vorwürfen an so ziemlich jeden Bürger.

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 5 Jahren

Hallo zusammen,

oben wurde ja viel diskutiert, was man machen kann. Jetzt besteht eine sehr einfache und gleichzeitig konkrete Möglichkeit zu handeln. Wikipedia hat folgende Seite ins Leben gerufen:

Rufen Sie das Europäische Parlament dazu auf, ein zeitgemäßes Urheberrecht zu schaffen!

Auf dieser hat man die Möglichkeit, eine E-Mail an den/die eigene(n) Europa-Abgeordente(n) zu schicken, in der man ihn oder sie zu konkreten Handlungen im Zuge der aktuell anstehenden Abstimmung über die Upload-Filter aufzurufen. Man kann den Text komfortabel konfigurieren und ergänzen. Alles sehr praktisch.

Je mehr mitmachen, desto besser!

Leider hat das Absenden bei mir nicht geklappt, aber ich hab dann einfach den fertig generierten Text samt Empfängeradresse in mein Mail-Programm kopiert und von dort abgeschickt.

herbivore

PS: Welche Abgeordneten für euer Bundesland zuständig sind, kann man auf Die deutschen Europa-Abgeordneten nach Bundesländern nachschlagen.

5.657 Beiträge seit 2006
vor 5 Jahren

Jetzt haben wir das Ergebnis:

Weeks of programming can save you hours of planning

B
357 Beiträge seit 2010
vor 5 Jahren

Zum Davonlaufen auf der einen Seite, aber ich erwarte, dass die technische Seite da noch links und rechts von Herrn Voss explodieren wird. Letztlich werden sich wieder mal Gerichte um Dinge kümmern müssen, die vorher schon jedem halbwegs vernünftig denkenden klar waren. Und am Ende findet jemand raus, wie man alles umgehen kann und dann ist Springer genauso weit wie jetzt auch hustLeistungsschutzrechthust

T
2.219 Beiträge seit 2008
vor 5 Jahren

@bredator
Hier würde es vermutlich reichen, wenn Google News das Licht ausmacht.
Dann dürften bei allen, egal ob großen oder kleinen, Verlagen die Besucherzahlen wegbrechen.
Da würde es reichen 1-2 Wochen mal Google News abzuschalten, damit es den Verlagen in Europa richtig wegtut.

Ansonsten bin ich über das Ergebnis sehr enttäuscht.
Aber man sieht man wieder, dass die C*U sowie die Sandsackpartei(SPD) mal wieder ihre Zweck erfüllt haben.
Ich kann mir ehrlich gesagt immer noch nicht erklären, warum es die noch gibt.
Kann nur noch durch die überalterte Mehrheit in Deutschland sein, die diese Parteien am leben hält.
Wie oft müssen die ihre Wahlversprechen noch brechen und ihre Wähler täuchen, bevor die abgewählt werden.
Selbst auf die GroKo, auf die keiner mehr Lust hat, müssen wir uns dank den Stammwählern wieder einlassen.
Und auf EU Ebene geht der Mist dann weiter.

T-Virus

Developer, Developer, Developer, Developer....

99 little bugs in the code, 99 little bugs. Take one down, patch it around, 117 little bugs in the code.

286 Beiträge seit 2011
vor 5 Jahren

Ich bin ja an sich kein Freund des Mannes, but he nailed it:

Punkt 4: Springe fordert vor Gericht eine Zwangslistung in Google News.

Edit:
Btw in Spanien wurde Google News bereits vor 4 Jahren aus den gleichen Gründen abgeschaltet (und ist es meines Wissens nach immernoch).
Hat einen Rückgang der Clicks um "nur" 10-15% verursacht.

2+2=5( (für extrem große Werte von 2)