The main theme of the thesis, which is divided into three chapters, is the regulation of digital platforms. In the first chapter, the analysis focuses on administrative regulation. The traditional model of administration describes this process as the exercise of authoritative powers by public administrations. At the end of the last century, an additional type of regulation was introduced: Independent Administrative Authorities were appointed to regulate the market through conditional rules. The second chapter dealt with the phenomenon of the so-called “privatisation of digital justice”: private platforms intervene in social media by removing “inappropriate content” according to their Codes of Conduct. However, the term “inappropriate content” lacks clarity and can lead to arbitrary decisions. Thus, there is a risk that certain messages may be removed arbitrarily from online platforms, which may limit freedom of thought and expression. In order to prevent this, certain platforms have implemented entities, such as Facebook’s Oversight Board, to protect free speech online by reviewing decisions made by moderators or automated AI systems. The legal classification of digital platforms was discussed, given their crucial role of portal in communication in the Internet society: whether such platforms are classified as public, private or hybrid entities is crucial for determining regulatory measures. After reviewing the case law and doctrinal analysis of how the concept of public service has been developed in our country thus far, incorporating both objective and subjective interpretations, it is clear that it is not feasible to categorize digital platforms as public service. In order to explore this issue further, it has been analysed the debate in the US, which presents two opposing views: on the one hand, some see platforms as public utilities that should be regulated, while others see them as private entities that do not need to be regulated. Currently, the latter argument appears to dominate across the Atlantic, in contrast to Europe where co-regulation is favoured as a means of regulating such entities. Chapter three analyses the Digital Services Act, Regulation (EU) 2022/2065 of 19 October 2022. The aim of the DSA, which took effect on 25 August 2023, is to regulate digital platforms and ensure the safeguarding of people’s fundamental rights in a secure, accessible, predictable, and dependable online ecosystem. In order to comply with the DSA, there will be cooperation between the European Commission and National Independent Authorities known as Digital Services Coordinators. By 17 February 2024, Member States must designate Digital Services Coordinators (AGCOM already having been appointed for Italy). The very large online platforms will be supervised directly by the European Commission and will have to comply with the DSA rules immediately. However, the Digital Services Coordinators will be responsible for supervising small and medium-sized companies from February 2024. Regulating platforms presents a variety of challenges and the effectiveness of the DSA’s implementation can only be determined in the future. However, it is imperative to attempt regulation as the fundamental rights of individuals are at risk.

Il filo conduttore della tesi, articolata in tre capitoli, è la regolazione delle piattaforme digitali. Nel primo capitolo l’analisi si è concentrata sulla regolazione nel diritto amministrativo, che, secondo il modello tradizionale di amministrazione, rappresenta il suo oggetto essenziale riferendosi all’esercizio da parte delle amministrazioni pubbliche di poteri autoritativi. A questa tipologia di regolazione alla fine del secolo scorso ne è stata affiancata un’altra, affidata alle Autorità amministrative indipendenti, alle quali è stato assegnato il compito di regolare il mercato attraverso norme condizionali. Nel secondo capitolo è stato affrontato il fenomeno della c.d. “privatizzazione della giustizia digitale”, che vede l’intervento delle piattaforme private teso a rimuovere dai social i “contenuti inappropriati” in base ai loro Codici di condotta. L’espressione “contenuti inappropriati” è un concetto vago, che può dare la possibilità di effettuare scelte discrezionali, per questo motivo sorge il rischio che le decisioni di rimuovere determinati messaggi dalle piattaforme siano arbitrarie e possano limitare la libertà di pensiero e di espressione. Per ostacolare tale eventualità, alcune piattaforme hanno istituito organismi, come l’Oversight Board di Facebook, per proteggere la libertà di espressione online, riesaminando le decisioni prese dai moderatori o dai sistemi automatizzati di AI. È stato, in seguito, affrontato il problema della natura giuridica delle piattaforme digitali, che nella Internet society rivestono la posizione importantissima di portale nella comunicazione, in quanto dalla loro qualificazione come soggetti pubblici, privati o ibridi discende la possibilità o meno di regolamentarle. Dopo aver esaminato, in giurisprudenza e in dottrina, come nel nostro Paese è stato finora enucleato il concetto di servizio pubblico, sia secondo la concezione oggettiva che soggettiva, si è giunti alla conclusione che non è possibile inquadrare le piattaforme digitali come servizio pubblico. Per approfondire questa tematica, si è preso in considerazione, in un’ottica comparatistica, il dibattito negli USA, che vede il contrapporsi di due visioni opposte: da una parte le piattaforme sono viste come public utilities da regolamentare, dall’altra come soggetti privati che non devono essere regolamentati. Al momento attuale sembra prevalere, oltreoceano, la seconda ipotesi, a differenza dell’Unione europea, dove si ritiene che esse debbano essere regolamentate attraverso la co-regolazione. Nel terzo capitolo si è esaminato il Regolamento (UE) 2022/2065 del 19 ottobre 2022 (Regolamento sui servizi digitali). Il Digital Services Act, entrato in vigore il 25 agosto 2023, si inserisce nel quadro della necessità di regolamentare le piattaforme digitali per garantire la tutela dei diritti fondamentali delle persone in un ambiente online sicuro, accessibile, prevedibile ed affidabile. Per implementare il DSA è prevista la cooperazione a rete tra la Commissione europea e le Autorità indipendenti nazionali, denominate Digital Services Coordinators, che devono essere designate dagli Stati membri entro il 17 febbraio 2024 (per l’Italia è stata nominata di recente l’AGCOM), con una precisazione: le very large online platforms sono supervisionate direttamente dalla Commissione europea e si sono dovute adeguare fin da subito alla normativa prevista dal DSA, mentre le piccole e medie imprese saranno supervisionate dai Digital Services Coordinators da febbraio 2024. Dal momento che la regolazione delle piattaforme presenta varie difficoltà, solo in futuro potremo vedere se l’implementazione del DSA sarà effettiva, ma una cosa è certa: non è possibile non cercare di regolamentarle perché sono o in gioco i diritti fondamentali delle persone.

La disciplina giuridica multilivello delle grandi piattaforme digitali: la co-regolamentazione e l’attuazione amministrativa del Digital Services Act / Simona Piva , 2024 May 20. 36. ciclo, Anno Accademico 2022/2023.

La disciplina giuridica multilivello delle grandi piattaforme digitali: la co-regolamentazione e l’attuazione amministrativa del Digital Services Act

PIVA, SIMONA
2024

Abstract

The main theme of the thesis, which is divided into three chapters, is the regulation of digital platforms. In the first chapter, the analysis focuses on administrative regulation. The traditional model of administration describes this process as the exercise of authoritative powers by public administrations. At the end of the last century, an additional type of regulation was introduced: Independent Administrative Authorities were appointed to regulate the market through conditional rules. The second chapter dealt with the phenomenon of the so-called “privatisation of digital justice”: private platforms intervene in social media by removing “inappropriate content” according to their Codes of Conduct. However, the term “inappropriate content” lacks clarity and can lead to arbitrary decisions. Thus, there is a risk that certain messages may be removed arbitrarily from online platforms, which may limit freedom of thought and expression. In order to prevent this, certain platforms have implemented entities, such as Facebook’s Oversight Board, to protect free speech online by reviewing decisions made by moderators or automated AI systems. The legal classification of digital platforms was discussed, given their crucial role of portal in communication in the Internet society: whether such platforms are classified as public, private or hybrid entities is crucial for determining regulatory measures. After reviewing the case law and doctrinal analysis of how the concept of public service has been developed in our country thus far, incorporating both objective and subjective interpretations, it is clear that it is not feasible to categorize digital platforms as public service. In order to explore this issue further, it has been analysed the debate in the US, which presents two opposing views: on the one hand, some see platforms as public utilities that should be regulated, while others see them as private entities that do not need to be regulated. Currently, the latter argument appears to dominate across the Atlantic, in contrast to Europe where co-regulation is favoured as a means of regulating such entities. Chapter three analyses the Digital Services Act, Regulation (EU) 2022/2065 of 19 October 2022. The aim of the DSA, which took effect on 25 August 2023, is to regulate digital platforms and ensure the safeguarding of people’s fundamental rights in a secure, accessible, predictable, and dependable online ecosystem. In order to comply with the DSA, there will be cooperation between the European Commission and National Independent Authorities known as Digital Services Coordinators. By 17 February 2024, Member States must designate Digital Services Coordinators (AGCOM already having been appointed for Italy). The very large online platforms will be supervised directly by the European Commission and will have to comply with the DSA rules immediately. However, the Digital Services Coordinators will be responsible for supervising small and medium-sized companies from February 2024. Regulating platforms presents a variety of challenges and the effectiveness of the DSA’s implementation can only be determined in the future. However, it is imperative to attempt regulation as the fundamental rights of individuals are at risk.
Multilevel legal regulation of large digital platforms: co-regulation and administrative implementation of the Digital Services Act
20-mag-2024
MIDIRI, Mario
File in questo prodotto:
File Dimensione Formato  
Tesi di Dottorato PDF Simona Piva .pdf

embargo fino al 20/05/2027

Descrizione: Tesi di Dottorato definitiva Piva Simona: La disciplina giuridica multilivello delle grandi piattaforme digitali: la co-regolamentazione e l'attuazione amministrativa del Digital Services Act
Tipologia: Tesi di dottorato
Dimensione 2.2 MB
Formato Adobe PDF
2.2 MB Adobe PDF   Visualizza/Apri   Richiedi una copia
Pubblicazioni consigliate

Licenza Creative Commons
I metadati presenti in IRIS UNIMORE sono rilasciati con licenza Creative Commons CC0 1.0 Universal, mentre i file delle pubblicazioni sono rilasciati con licenza Attribuzione 4.0 Internazionale (CC BY 4.0), salvo diversa indicazione.
In caso di violazione di copyright, contattare Supporto Iris

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11380/1339246
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact