Ακολούθησέ με στα Unregulated Waters!

Ο Νόμος για τις Ψηφιακές Υπηρεσίες (DSA) στοχεύει στο να κάνει το διαδίκτυο ασφαλέστερο. Μεταξύ άλλων, το DSA εξουσιοδοτεί τους χρήστες να ειδοποιούν τις πλατφόρμες σχετικά με παράνομο περιεχόμενο και (!) να τους αναγκάζει να αναλάβουν δράση — το λεγόμενο «ειδοποίηση και δράση», άρθρο 16 DSA. Μόλις πριν από λίγες εβδομάδες, η Ευρωπαϊκή Επιτροπή κίνησε διαδικασίες κατά του Meta σχετικά, μεταξύ άλλων, με τους μηχανισμούς υποβολής εκθέσεων. Προφανώς, η Επιτροπή υποπτεύεται παραβάσεις από τη Meta σε αυτόν τον τομέα — αν και μέχρι σήμερα δεν έχουν δημοσιευθεί λεπτομέρειες.

Σε αυτό το άρθρο, θα δείξω πώς ορισμένες μεγάλες πλατφόρμες αποτυγχάνουν να εφαρμόσουν σωστά τους κανόνες του DSA σχετικά με τους μηχανισμούς ειδοποίησης και δράσης. Κατά την άποψή μου, πολλές πλατφόρμες ωθούν αδικαιολόγητα τους πιθανούς αποστολείς ειδοποιήσεων (εφεξής: ρεπόρτερ ) να υποβάλουν αδύναμες, σε μεγάλο βαθμό ανεξέλεγκτες σημαίες κοινοτικών προτύπων. Ταυτόχρονα, οι πλατφόρμες αποτρέπουν τους χρήστες από την υποβολή (ισχυρών) ειδοποιήσεων που ρυθμίζονται από το DSA.

Για παράδειγμα, το TikTok θα χρησιμεύσει ως παράδειγμα. Ωστόσο, πολλές διαδικτυακές πλατφόρμες παρουσιάζουν παρόμοια ελαττώματα. Για παράδειγμα, οι μηχανισμοί αναφοράς του Facebook και του Instagram είναι εξίσου προβληματικοί με το TikTok.

Τα ευρήματα σε αυτό το άρθρο βασίζονται σε μια συνεργασία με τον Οργανισμό Ανθρωπίνων Δικαιωμάτων HateAid, ο οποίος έχει ξεκινήσει ευρείες έρευνες για τους μηχανισμούς αναφοράς όλων των μεγάλων πλατφορμών.

Παράλληλη αναφορά

Για καλύτερη κατανόηση θα εξηγήσω πρώτα το φαινόμενο των παράλληλων ροών αναφοράς. Θεωρητικά, οι πλατφόρμες θα μπορούσαν να λάβουν το άρθρο 16 ως κατώτατο όριο, όχι ως οροφή, και να αντιμετωπίζουν όλες τις αναφορές ελέγχου περιεχομένου σύμφωνα με τα πρότυπα που ορίζονται στο άρθρο 16. Ωστόσο, όλες οι μεγάλες πλατφόρμες επέλεξαν να μην το κάνουν αυτό. Αντίθετα, διοχετεύουν τις αναφορές σε δύο, τότε αυστηρά διαχωρισμένες ομάδες καταγγελιών:

  • (κυρίως μη ρυθμιζόμενες) καταγγελίες σχετικά με εικαζόμενες παραβιάσεις των Προτύπων της Κοινότητας ή των Όρων Παροχής Υπηρεσιών (ToS), μετά από: ToS-flag ,
  • (ρυθμιζόμενες) καταγγελίες για πιθανές παραβιάσεις της νομοθεσίας της ΕΕ ή των κρατών μελών, μετά από: ειδοποίηση DSA .

Σε κάποιο βαθμό, οι πλατφόρμες μπορούν να δικαιολογήσουν αυτόν τον διαχωρισμό με υποχρεώσεις διαφάνειας, καθώς απαιτείται να αναφέρουν τις μετρήσεις των ειδοποιήσεων DSA. Ωστόσο, οι πλατφόρμες μπορεί να ακολουθούν μια καθαρά οικονομική λογική όταν, πέρα ​​από τη διαφοροποίηση για λόγους διαφάνειας, στοχεύουν σε μεγάλο βαθμό στην ενσωμάτωση των αναφορών σε δύο πολύ διακριτές κατηγορίες και στην διαφορετική μεταχείρισή τους: οι ειδοποιήσεις DSA πρέπει να υποβάλλονται σε επεξεργασία υπό την κανονιστική ομπρέλα και την επίβλεψη της DSA, ενώ οι ToS οι σημαίες είναι πολύ λιγότερο ρυθμισμένες. Κατά μέσο όρο, η επεξεργασία των ειδοποιήσεων DSA απαιτεί περισσότερους πόρους και μπορεί να οδηγήσει σε αυστηρότερη λογοδοσία. Π.χ., η άρνηση δράσης για το κοινοποιημένο περιεχόμενο μετά τη λήψη ειδοποιήσεων DSA μπορεί να οδηγήσει σε δαπανηρά μέτρα παρακολούθησης μέσω των άρθρων 20, 21 DSA (τα οποία απαιτούν ανθρώπινη παρέμβαση). Επιπλέον, μόνο οι ειδοποιήσεις DSA ενδέχεται να προκαλέσουν ισχυρή ρυθμιστική εποπτεία, π.χ. σχετικά με το άρθρο 16 παράγραφος 6 S. 1 DSA, το οποίο απαιτεί από τις πλατφόρμες να «επεξεργάζονται … ειδοποιήσεις … με έγκαιρο, επιμελή, μη αυθαίρετο και αντικειμενικό τρόπο». Επομένως, μπορεί κανείς να υποθέσει ότι οι πλατφόρμες προτιμούν να έχουν οι δημοσιογράφοι να τους στέλνουν σημαίες ToS αντί για ειδοποιήσεις DSA.

Και πράγματι, οι πλατφόρμες σχεδιάζουν (αδικαιολόγητα) τους μηχανισμούς αναφοράς τους για να προωθήσουν τέτοια αποτελέσματα:

Απεικόνιση: Μηχανισμός Αναφοράς του TikTok

Σήμερα, οι περισσότερες αναφορές περιεχομένου πραγματοποιούνται μέσω προσχεδιασμένων ροών αναφοράς κλικ προς αριθμό εμφανίσεων. Είναι ενδιαφέρον ότι οι μεγάλες πλατφόρμες επέλεξαν έναν αρκετά παρόμοιο σχεδιασμό αυτών των ροών αναφοράς. Ο σχεδιασμός της πλατφόρμας εδώ αποτελείται κυρίως από τρία σχετικά στάδια, τα οποία αναφέρομαι ως «Έναρξη», «Διαχωρισμός» και «Υποβολή». Επιτρέψτε μου να το επεξηγήσω αυτό για το TikTok:

Βήμα 1 – Έναρξη

Οι χρήστες μπορούν να εισέλθουν στη διαδικασία αναφοράς μέσω συμβόλων που αποδίδονται άμεσα στο εν λόγω τμήμα περιεχομένου (εφεξής «Έναρξη» – στάδιο μηχανισμών αναφοράς). Οι πλατφόρμες ενδέχεται να χρησιμοποιούν ένα σύμβολο σημαίας, τρεις τελείες ή —όπως φαίνεται εδώ, μιμούμενος τη σχεδίαση εντός εφαρμογής του TikTok— ένα βέλος (το οποίο οδηγεί τους δημοσιογράφους σε ένα υπομενού που περιέχει ένα σύμβολο σημαίας):

(εικόνα: Στάδιο έναρξης με σύνδεσμο βέλους)

Βήμα 2 – Διαχωρισμός

Κάνοντας κλικ στο βέλος και στη συνέχεια (στο υπομενού) στην "Αναφορά" θα οδηγήσει σε ένα δεύτερο, πιο συνεπές στάδιο όπου ζητείται από τους δημοσιογράφους να προσδιορίσουν την ανησυχία τους (εφεξής: Segregation-stage), όπως φαίνεται στην επόμενη εικόνα που προσομοιώνει τη σχεδίαση του TikTok:

(εικονογράφηση: στάδιο διαχωρισμού)

Οι δημοσιογράφοι καλούνται να «επιλέξουν έναν λόγο» από μια λίστα κατηγοριών απαγορευμένου περιεχομένου, για τα περισσότερα μέρη που αντικατοπτρίζουν τα κοινοτικά πρότυπα της πλατφόρμας. Αλλά αυτή η λίστα περιλαμβάνει επίσης έναν σύνδεσμο που αναφέρεται σε «παράνομο περιεχόμενο», π.χ. για το TikTok: «Αναφορά παράνομου περιεχομένου». Για το TikTok, σημειώστε ότι, σε ορισμένα smartphone, είναι απαραίτητο να κάνετε κύλιση λίγο για να βρείτε τον σύνδεσμο «Αναφορά παράνομου περιεχομένου».

Από την άποψη της πλατφόρμας, αυτό το στάδιο διαχωρισμού είναι κρίσιμο, καθώς θα καθορίσει εάν η πλατφόρμα θα αντιμετωπίζει την αντίστοιχη αναφορά ως απλή σημαία ToS ή ως ειδοποίηση DSA. Πρέπει να υποθέσουμε ότι οι πλατφόρμες αντιμετωπίζουν τις αναφορές ως ειδοποιήσεις DSA μόνο όταν οι δημοσιογράφοι κάνουν κλικ στην "Αναφορά παράνομου περιεχομένου" (στο παράδειγμα). Η αναφορά διαφάνειας σύμφωνα με το άρθρο 15 DSA υποστηρίζει αυτήν την υπόθεση (οι μετρήσεις που έχουν αναφερθεί για τις ειδοποιήσεις DSA υποστηρίζουν το συμπέρασμα· ορισμένες πλατφόρμες παρέχουν ακόμη και την αντίστοιχη εξήγηση, π.χ. Έκθεση Διαφάνειας του TikTok από τον Σεπτέμβριο έως τον Δεκέμβριο του 2023, σελ. 4: «… έχουμε εισαγάγει μια πρόσθετη εξήγηση. αναφορά καναλιού … στην «Αναφορά παράνομου περιεχομένου», που δίνει τη δυνατότητα στους χρήστες να μας ειδοποιούν για περιεχόμενο που πιστεύουν ότι παραβιάζει το νόμο»).

Βήμα 3 – Υποβολή

Μετά από αυτό το στάδιο διαχωρισμού, οι δημοσιογράφοι οδηγούνται στο τελικό στάδιο της διαδικασίας, όπου τους ζητείται να υποβάλουν την έκθεσή τους. Ωστόσο, αυτό το στάδιο Υποβολής είναι σε μεγάλο βαθμό διαχωρισμένο, πράγμα που σημαίνει ότι φαίνεται πολύ διαφορετικό για τις σημαίες ToS σε σύγκριση με τις ειδοποιήσεις DSA.

Εάν οι δημοσιογράφοι έκαναν κλικ σε μία από τις πολλές περιγραφές για παραβιάσεις των Προτύπων της Κοινότητας (π.χ. «Μίσος και παρενόχληση»), το στάδιο υποβολής τους (ToS) θα φαίνεται αρκετά προσεγμένο και εύκολο:

(εικόνα: Στάδιο υποβολής για σημαίες ToS)

Ωστόσο, όταν, στο προηγούμενο στάδιο του διαχωρισμού, οι δημοσιογράφοι έκαναν κλικ σε κορυφαίες πλατφόρμες "Αναφορά παράνομου περιεχομένου" για να αντιμετωπίσουν την αναφορά ως ειδοποίηση DSA, τότε τα πράγματα περιπλέκονται και οι δημοσιογράφοι οδηγούνται σε ένα μάλλον αποτρεπτικό στάδιο υποβολής, καθώς ( αφηρημένα) απεικονίζεται για το TikTok εδώ:

(εικονογράφηση: Στάδιο υποβολής ειδοποιήσεων DSA)

Σε αυτήν την περίπτωση, οι δημοσιογράφοι υποχρεούνται να προσδιορίσουν τη "Νομική δικαιοδοσία" και να δώσουν μια διεύθυνση email (αυτό απαιτείται μόνο για χρήστες που έχουν αποσυνδεθεί, δεν φαίνεται στο γράφημα), μια "Εξήγηση αναφοράς", μια "Υπογραφή" ("νομική όνομα») και επιβεβαίωση ακρίβειας. Επιπλέον, οι δημοσιογράφοι προειδοποιούνται για πιθανές συνέπειες αβάσιμων αναφορών (απαιτείται κύλιση για να δείτε την προειδοποίηση, που δεν φαίνεται στο παραπάνω γράφημα).

Μηχανισμοί αναφοράς που δεν είναι «φιλικοί προς το χρήστη»

Κατά την άποψή μου, ο σχεδιασμός της πλατφόρμας που απεικονίζεται παραπάνω έρχεται σε αντίθεση με την επιταγή του άρθρου 16(1) για τη θέσπιση μηχανισμών αναφοράς «εύκολων στην πρόσβαση και φιλικών προς το χρήστη».

Στάδιο έναρξης:

Η έναρξη δεν είναι εύκολη στην πρόσβαση : Στην εφαρμογή του TikTok, ο πιο συμβατικός τρόπος για να εισέλθετε στον μηχανισμό αναφοράς είναι κάνοντας κλικ στο βέλος-σύμβολο, το οποίο θα σας οδηγήσει σε ένα υπομενού που περιέχει έναν σύνδεσμο "Αναφορά". Ωστόσο, η κύρια λειτουργία του βέλους είναι γνωστή για την κοινή χρήση περιεχομένου. Έτσι, οι χρήστες ενδέχεται να μην αναμένουν μια καταχώρηση στην αναφορά. Ως εκ τούτου, θα μπορούσε κανείς να υποστηρίξει ότι στην εφαρμογή του TikTok, οι μηχανισμοί αναφοράς δεν είναι «εύκολοι στην πρόσβαση» (άρθρο 16 παράγραφος 1 S. 2 DSA), καθώς δεν είναι «σαφώς αναγνωρίσιμοι» (όπως απαιτείται από την αιτιολογική σκέψη 50 S. 3 DSA). .

Στάδιο διαχωρισμού:

Παραπλάνηση χρηστών προς μη ενημερωμένες αποφάσεις : Στο στάδιο του διαχωρισμού, οι δημοσιογράφοι μπορεί να παραπλανηθούν σχετικά με τις συνέπειες της απόφασης που πρόκειται να λάβουν. Η πλατφόρμα φαίνεται ότι ζητά να προσδιορίσει τη φύση του αναφερόμενου περιεχομένου ("Επιλέξτε έναν λόγο"). Ωστόσο, χωρίς ρητή εξήγηση, η πλατφόρμα θα χρησιμοποιήσει την απόφαση για να καθορίσει τη νομική φύση της αναφοράς (αδύναμη σημαία ToS ή ισχυρή ειδοποίηση DSA).

Η "Αναφορά παράνομου περιεχομένου" είναι δύσκολο να βρεθεί : Φαίνεται ότι μόνο ο σύνδεσμος "Αναφορά παράνομου περιεχομένου" θα κάνει την πλατφόρμα να αντιμετωπίζει την αναφορά ενός χρήστη ως ισχυρή ειδοποίηση DSA. Ωστόσο, χρειάζεται κάποια προσπάθεια για τον εντοπισμό της σχετικής υπερ-σύνδεσης (ένας σύνδεσμος μεταξύ πολλών άλλων, όλοι υποδεικνύουν κάπως παρόμοιους «λόγους») και μπορεί να απαιτηθεί κύλιση για να βρεθεί ο σύνδεσμος.

Προώθηση δημοσιογράφων ενάντια στα νόμιμα συμφέροντά τους : Και οι δύο προαναφερθέντες παράγοντες συνεπάγονται μια ουσιαστική ώθηση προς (αδύναμη) επισήμανση ToS. Αυτή η ώθηση έχει το κόστος των θεμιτών συμφερόντων των χρηστών: Οι μέσοι ρεπόρτερ μπορεί να μην σκέφτονται καθόλου τις διαφοροποιήσεις μεταξύ των σημαιών ToS και των ειδοποιήσεων DSA. , δηλαδή μια (ισχυρή) προκήρυξη του άρθρου 16 DSA. Όταν οι πλατφόρμες προσπαθούν να ανατρέψουν αυτή τη λογική παρέχοντας κίνητρα για επισήμανση ToS πάνω από ειδοποιήσεις DSA, το κάνουν μόνο για τα δικά τους οικονομικά συμφέροντα και εις βάρος των νόμιμων συμφερόντων των μέσων ρεπόρτερ.

Στάδιο υποβολής:

Παράνομα αιτήματα : Ενώ το άρθρο 16(2) DSA απαιτεί από τις πλατφόρμες «να επιτρέπουν και να διευκολύνουν την υποβολή ειδοποιήσεων που περιέχουν» λεπτομερείς πληροφορίες, το άρθρο 16 δεν επιτρέπει (!) να εξαρτώνται από αυτά τα δεδομένα (αιτιολογική σκέψη 50 S. 5 DSA: «θα πρέπει να επιτρέπει, αλλά όχι να απαιτεί»). Έτσι, το TikTok απαιτεί παράνομα από τους δημοσιογράφους να παρέχουν διεύθυνση ηλεκτρονικού ταχυδρομείου (αποσυνδεδεμένοι χρήστες), δικαιοδοσία, επεξήγηση και υπογραφή. Αυτό θα αποτρέψει τους χρήστες από την υποβολή ειδοποιήσεων DSA.

Επαχθή και αινιγματικά αιτήματα : Το αίτημα του TikTok να προσδιορίσει μια δικαιοδοσία μπορεί επίσης να προκαλέσει σύγχυση στους δημοσιογράφους: Σε τι αναφέρεται το TikTok; Νομικό φόρουμ; Ισχύουν περιορισμοί ομιλίας; Πιθανότατα: το τελευταίο. Ωστόσο, σε αυτήν την περίπτωση, το μενού του δεν έχει ένα πλαίσιο ελέγχου για το «νόμος της Ένωσης». Ένα άλλο μειονέκτημα: Οι δημοσιογράφοι δεν μπορούν να επιλέξουν πολλαπλές δικαιοδοσίες.

Δυσανάλογες προειδοποιήσεις : Οι προειδοποιήσεις του TikTok σχετικά με αβάσιμες αναφορές φαίνονται δυσανάλογες. Οι προειδοποιήσεις φαίνονται επίσης μη ισορροπημένες καθώς το TikTok δεν παρέχει αντίστοιχες προειδοποιήσεις για σημαίες ToS.

Λανθασμένη επεξεργασία ειδοποιήσεων DSA;

Όχι μόνο ένας τέτοιος σχεδιασμός πλατφόρμας οδηγεί σε παραβίαση του άρθρου 16(1) DSA ( μηχανισμοί αναφοράς που δεν είναι «εύκολοι στην πρόσβαση και φιλικοί προς το χρήστη»). Κατά την άποψή μου, οδηγεί επίσης σε επακόλουθα λάθη: Όπως είδαμε, οι πλατφόρμες ωθούν τους δημοσιογράφους να υποβάλουν «αδύναμες» σημαίες ToS αντί για «ισχυρές» ειδοποιήσεις DSA. Ωστόσο, αυτό καθορίζει μόνο την de facto αντιμετώπιση των ειδοποιήσεων: Από την οπτική γωνία των πλατφορμών , οι αναφορές θα ανήκουν κυρίως στον κάδο των απλών «μη ρυθμιζόμενων» σημαιών ToS. Αλλά το πώς οι πλατφόρμες κατηγοριοποιούν μια δεδομένη αναφορά δεν καθορίζει τελικά την πραγματική νομική φύση αυτής της αναφοράς.

Άρθρο 16(1) S. 1 Η DSA ορίζει νομικά τι είναι μια ειδοποίηση DSA: Μια επικοινωνία ("ειδοποίηση") σχετικά με ένα συγκεκριμένο περιεχόμενο που ο δημοσιογράφος "θεωρεί ότι είναι παράνομο περιεχόμενο". Αυτός ο ορισμός δεν εξαρτάται από το πώς μια πλατφόρμα θέλει υποκειμενικά να κατηγοριοποιήσει μια δεδομένη αναφορά. Αντίθετα, η ακόλουθη ερώτηση είναι καθοριστική: Πώς θα ερμήνευε την έκθεση ένας ουδέτερος τρίτος παρατηρητής; Για να απαντηθεί αυτό το ερώτημα, πρέπει να ληφθούν υπόψη οι προσδοκίες της πλατφόρμας, αλλά μόνο εντός της σφαίρας των «νόμιμων προσδοκιών» (μια καλά αποδεκτή αρχή για την ερμηνεία των νομικών δηλώσεων). Αυτό κατά νου, μπορεί κανείς κάλλιστα να υποστηρίξει ότι ακόμη και όταν οι αναφορές —μέσω ώθησης πλατφόρμας και παραπλάνησης— προσγειώνονται στον κάδο ToS, ο αντίστοιχος ρεπόρτερ (από την οπτική γωνία ενός ουδέτερου παρατηρητή) μπορεί να εξακολουθεί να στοχεύει στην αναφορά περιεχομένου που ο ρεπόρτερ θεωρεί «παράνομο». Τότε η έκθεσή του εξακολουθεί να είναι μια ειδοποίηση DSA, αν και οι πλατφόρμες μπορεί λανθασμένα να πιστεύουν ότι επιτρέπεται να την αντιμετωπίζουν ως απλή σημαία ToS, αλλά αυτή η προσδοκία δεν είναι θεμιτή. Σκεφτείτε το ακόλουθο παράδειγμα: Ένας δημοσιογράφος, στο στάδιο του διαχωρισμού, βρίσκει και κάνει κλικ στην "Αναφορά παράνομου περιεχομένου". Τότε φοβάται από τα αδικαιολόγητα αιτήματα για όνομα, εξήγηση και δικαιοδοσία. Αποθαρρυμένος, κάνει κλικ πίσω στο Segregation-stage και εκεί κάνει κλικ στο "Hate and harassment", το οποίο στη συνέχεια το TikTok θα χειριστεί ως απλή σημαία ToS. Ένας τρίτος παρατηρητής θα ερμήνευε απαραιτήτως αυτή την αναφορά; Δεν νομίζω!

Εάν κάποιος ακολουθήσει αυτό το σκεπτικό, τότε οι πλατφόρμες θα αντιμετωπίζουν -σε τεράστια ποσά- τις ειδοποιήσεις DSA ως απλές σημαίες ToS. Π.χ., οι πλατφόρμες είναι πολύ πιθανό να μην περιλαμβάνουν αυτές τις αναφορές στην αναφορά διαφάνειας (άρθρο 15, 24 DSA) και ενδέχεται να μην επιτρέπουν υποχρεωτικές αναθεωρήσεις αποφάσεων εποπτείας (Άρθρο 20, 21 DSA). Όλα αυτά είναι επακόλουθα λάθη που μολύνθηκαν από την απόφαση των πλατφορμών να κατευθύνουν μονόπλευρα τους δημοσιογράφους προς τις σημαίες ToS.

Συμπέρασμα και Outlook: Πρακτικά DSA;

Μέσω του σχεδιασμού των ροών αναφορών τους, οι πλατφόρμες ωθούν τους χρήστες να υποβάλλουν αδύναμες ειδοποιήσεις ToS, γεγονός που οδηγεί τις πλατφόρμες να μετρούν λιγότερες (ισχυρές) ειδοποιήσεις DSA που εμπίπτουν στη ρυθμιστική εποπτεία της DSA. Ένας τέτοιος σχεδιασμός θα μπορούσε να περιγραφεί ως μια προσέγγιση «ακολουθήστε με σε μη ρυθμισμένα νερά». Κατά την άποψή μου, αυτό ισοδυναμεί με παραβίαση του άρθρου 16(1) DSA. Μπορεί επίσης να οδηγήσει σε επακόλουθα λάθη όταν οι ειδοποιήσεις DSA εσφαλμένα δεν αντιμετωπίζονται ως τέτοιες.

Σε αυτό το άρθρο, το TikTok χρησίμευσε απλώς ως παράδειγμα. Όλες οι μεγάλες πλατφόρμες, σε κάποιο βαθμό, παρουσιάζουν παρόμοιες ελλείψεις (Facebook, Instagram και X φαίνονται παρόμοια, το LinkedIn φαίνεται χειρότερο, το YouTube και το Pinterest τα πηγαίνουν καλύτερα). Ως μια πολλά υποσχόμενη αρχή, η Επιτροπή κίνησε διαδικασίες κατά της Meta σχετικά με τους μηχανισμούς υποβολής εκθέσεων. Και ίσως ελπίζουμε ότι η Επιτροπή θα εξετάσει τις πτυχές που περιγράφονται εδώ. Ωστόσο, οι αρμόδιοι συντονιστές ψηφιακών υπηρεσιών θα πρέπει επίσης να ξεκινήσουν τη διερεύνηση άλλων πλατφορμών (όλες οι πλατφόρμες που αναφέρονται έχουν την έδρα τους στην Ιρλανδία, αναθέτοντας την Coimisiún na Meán επικεφαλής).


Αυτή είναι μια αυτόματη μετάφραση μιας ανάρτησης που δημοσιεύτηκε στο Verfassungsblog στη διεύθυνση URL https://verfassungsblog.de/follow-me-to-unregulated-waters/ στις Thu, 30 May 2024 09:37:12 +0000.