This is an HTML version of an attachment to the Freedom of Information request 'Digital Services Act / Digital Markets Act'.

Skri liga synpunkter om förslag till förordning om inre marknad för
digitala tjänster (DSA)

Tack för möjligheten a inkomma med skri liga synpunkter om förslag til förordning om inre
marknad för digitala tjänster (DSA). Google stöder ful t ut kommissionens och den svenska
regeringens ambition a främja e ansvarsful t internet. Det är dä ör viktigt a förordningen
är tydlig, främjar innovation och respekterar grundläggande rä igheter.
Denna skri liga inlaga består av:
1. Kommentar på de punkter som framkom på sakrådet 18/2-2021
2. Analys av förslaget i sin helhet på engelska
Fokus i båda fal en är på hur kommissionens u alade målsä ning a främja innovation och
respektera grundläggande rä igheter kan til varatas.
1. Sammanfa ning av frågor från regeringens EU-sakråd
När du använder Googles tjänster i Sverige följs svensk lag samt respektive tjänsts
användarvil kor. Vi vil ge våra användare och kunder en så bra upplevelse som möjligt och
uppdaterar kontinuerligt våra tjänster, regelverk och processer för a främja de a. När innehål
bryter mot lagen el er våra användarvil kor tas innehål ner i enlighet med den process som
nns i vil koren.
Sy et med förslaget, det vil säga a främja e ansvarsful t internet där mel anhänder vidtar
nödvändiga åtgärder gäl ande olagligt innehål , utan a inskränka grundläggande rä igheter
bör fo sa vara i fokus. Utöver y randefriheten bör även näringsfriheten beaktas och a t.ex.
undanta innehål som publiceras av en viss typ av aktör (t.ex publicister) är inte förenligt med
förslagets sy e och avtalsrä . En så kal ad must carry- skyldighet skul e begränsa hur privata
företag kan säkerstäl a a användarvil kor följs och a olagligt innehål hanteras på det sä som
föreskrivs i förslaget.
● Til exempel al a som interagerar med YouTube måste följa våra riktlinjer för
communityn. Vi ger al a användare omfa ande information om vad de a innebär.
● Det laddas upp över 500 h video per minut på YouTube och det är bara en bråkdel (1
procent) av de a som är olagligt el er innehål er material som bryter mot våra riktlinjer.
● Det tas på sto al var och YouTube förlitar sig på en kombination av människor och
teknik för a
agga olämpligt innehål  och se til a  riktlinjer och användarvil kor följs.
○ Vi tar bo
innehål som bryter mot lagen och våra policyer så snabbt som
möjligt.

○ Vi ly er fram betrodda käl or när människor letar e er information t.ex. som nu
under corona.
○ Vi minskar spridningen av innehål som be nner sig i gråzonen av som inte är
olagligt el er oförenligt med våra policies men som tangerar.
○ Vi i stäl er höga krav på vilka kanaler som kan tjäna pengar på YouTube. De a ska
vara e  privilegium och inte en rä ighet.
● Process i tre steg för vad som sker om vi upptäcker a innehål inte följer våra riktlinjer
för communityn. Al varliga öve rädelser kan leda til andra konsekvenser. Al a kreatörer
har möjlighet att överklaga bedömningar.
● När en video blir aggad granskas den och videons sammanhang av YouTubes team för
a avgöra om videon ska begränsas, tas bo el er ligga kvar. Videon bedöms också
utifrån om sy et med den är utbildande, dokumentär, vetenskaplig el er konstnärlig.
● Vi investerar årligen 1 miljard dol ar i de a arbete och utvecklar kontinuerligt både
maskininlärning-baserade system för a känna igen olagligt innehål och har e sto
antal personer anstäl da som granskar sådant innehål .
2. Google’s perspectives on the EU Digital Services Act
The Commission's dra EU Digital Services Act (DSA) regulation lays out responsibilities and
accountability mechanisms for intermediary service providers. The text has three main
po ions: the liability regime, due diligence obligations, and regulatory oversight.
This non-paper evaluates the text against the Commission’s objectives of providing legal
clarity, respect for fundamental rights, harmonisation across the Single Market, and clear
responsibilities for di erent types of intermediaries and authorities. It highlights the provisions
that wil help achieve these objectives, and identi es provisions that may fal sho of them. It
also considers how due diligence obligations can best serve users, by enabling services to
build the most innovative and e cient tools to advance online safety.
The aim of the non-paper is to help bring about a DSA that promotes a responsible internet,
through a regulatory framework that provides clarity, promotes innovation, and respects
fundamental rights.
Cornerstone principles of the EU Single Market
The Commission rightly maintains the core principles of the e-Commerce Directive, including
its conditional intermediary liability regime, the prohibition on mandating general monitoring,
and the country-of-origin principle. These principles enabled the growth of the digital
economy in Europe and expanded access to information. As the Commission writes in the
Explanatory Memorandum, the DSA “maintains the liability rules for providers of intermediary

services set out in the e-Commerce Directive – by now established as a foundation of the
digital economy and instrumental to the protection of fundamental rights online
.”
The Commission also helpful y clari ed some aspects of the liability rules “to eliminate existing
disincentives towards voluntary own-investigations unde aken by providers of intermediary
services to ensure their users’ safety and to clarify their role from the perspective of
consumers in ce ain circumstances.” This wil provide services of al sizes with greater legal
ce ainty, so they can unde ake voluntary measures and develop innovative tools aimed at
protecting users.
Maintaining cornerstone principles of the e-Commerce Directive, and improving them by, for
example, adding protections for voluntary e o s to moderate content and creating
mechanisms to suppo
cross-border cooperation, wil foster innovation and protect
fundamental rights. It wil  also help ensure harmonisation across the Union.
Clari cations that could aid legal ce ainty
Smal changes in the text would help ensure delity to the Commission’s intent and provide
services with legal ce ainty to meet their obligations. These include:
● De nition of il egal content (A icle 2(g)): The Commission has explicitly stated that the
DSA does not purpo to de ne what il egal content is. This remains a ma er for
applicable national and EU law. Accordingly, there is a need to tighten the de nition of
il egal content by removing the text around “reference to an [il egal] activity,” which
could lead to excessive takedowns (e.g., would a video showing a car breaking the
speed limit in Munich also qualify as il egal content?).
● De nition of marketplaces, or “online pla orms that al ow consumers to conclude
distance contracts with traders” (A icles 5(3) and 22): These provisions are aimed at
online marketplaces and, therefore, apply to online pla orms that al ow the consumer
to conclude a distance contract with the trader on the online pla orm. The
Commission’s intent is evident in A icle 5(3) which states that the concern is around
online pla orms presenting information or enabling transactions “in a way that would
lead an average and reasonably wel -informed consumer to believe that the
information, or the product or service that is the object of the transaction, is provided
either by the online pla orm itself or by a recipient of the service who is acting under its
authority or control.
” Online pla orms that redirect the consumer to conclude a
distance contract with the trader on the third-pa y trader’s site should accordingly be
explicitly carved out from the scope of application of A icles 5(3) and 22.
● Voluntary own-initiative investigations (A icle 6): The Commission rightly introduced a
clause providing that online intermediaries are not ineligible for the conditional liability
exemptions solely because they carry out voluntary own-initiative investigations. To

meet the objective of promoting user safety, it is impo ant to clarify that this provision
also covers voluntary own-initiative investigations to detect content that violates a
service’s Terms and Conditions.
● Notice formalities giving rise to knowledge (A icle 14(3)): The inclusion of notice
formalities wil help standardise and substantiate requests to remove il egal content. It is
impo ant to tighten the language in A icle 14(3) to ensure that a noti cation that
meets the requirements under A icle 14(2) does not necessarily give rise to
knowledge. As currently dra ed, the DSA creates a risk of over-removal, which might
negatively impact fundamental rights. For example, if a user argues that a piece of
content is defamatory without providing other necessary context, the hosting service
should not be incentivised to remove the content in order to avoid potential liability for
it.
● Clearer distinctions for Cloud services: Cloud services should be explicitly classi ed as
“basic hosting” services, to avoid the risk that they may be inadve ently subjected to
the due diligence obligations for “online pla orms.” The main purpose of cloud services
is not to disseminate information to the public, but rather to al ow users to store
personal content and share it within closed circles. For business-to-business cloud
services, customers of cloud service providers -- and not cloud service providers
themselves -- have ownership and control over the content they put on the cloud.
Content moderation in the cloud can be impossible, as cloud service providers cannot
always see and remove individual pieces of content, due to technical capabilities or
privacy and contractual reasons. The DSA should take this complexity into account and
should not subject cloud services to the most stringent due diligence obligations
applicable to user generated content hosting pla orms or social-media type of
services.
● Clarity around nes (A icles 42 and 59): The DSA should make clear that nes may only
be imposed for systemic violations of due diligence obligations.
Closing the backdoors to regulating lawful content
Backdoors in the risk management clauses may undermine EU fundamental rights
As currently dra ed, the DSA might lead to regulation via the backdoor of il egal and lawful
content alike. The DSA should neither al ow regulators to de ne risks for businesses (A icle
26), nor impose risk mitigation solutions on them (Recitals 59, 68 and A icle 35).
● Regulators have wide powers to issue rules on il egal and lawful content in ways that
have serious implications for fundamental rights, including restriction of free
expression. For example, their powers extend to lawful content that may have a

“negative e ect on… civic discourse,” through Codes of Conduct that may become
mandatory in practice for very large online pla orms (pursuant to Recital 68).
● This runs counter to the Commission’s stated intention to protect lawful content. In the
Explanatory Memorandum, the Commission notes that lawful-but-harmful content
“should not be subject to removal obligations, as this is a delicate area with severe
implications for the protection of freedom of expression,” yey these provisions risk
exactly that result. They could also harm innovation and the fundamental right to
conduct a business, if the regulators mandate the technical requirements for how
pla orms manage content.
● The DSA should remove these provisions that would lead to regulation of lawful
conduct through the backdoor, and not through EU democratic processes.
Facilitating meaningful user redress
The text should aid e ciency, hinder bad actors, and protect the freedom to conduct a
business

Provisions around out-of-cou dispute se lement (A icle 18), publication of statements of
reasons (A icle 15(4)) and limits on automation in complaint-handling (A icle 17(5)) could open
up avenues for abuse and weaken content moderation systems.
A. Out-of-cou  dispute se lement (A icle 18)
Users should have the ability to appeal content decisions. However, the DSA provision on
out-of-cou  mechanisms could lead to several unintended consequences:
● Enabling bad actors: A icle 18 opens up avenues for abuse and does not scale to the
mil ions of decisions online pla orms make. Bad actors could use alternative dispute
resolution (ADR) to arbitrate every content removal across EU Member States at a
company’s expense. Pla orms remove bil ions of pieces of content from bad actors
trying to spam, trick, or defraud users. Enabling bad actors to access ADR could slow
down the process for legitimate seekers of redress. Surely this is not meeting the
intent of meaningful user redress.
● National authorities’ removal orders: Under the current DSA text, content uploaders
may arguably also chal enge services removals made pursuant to national authorities’
removal orders (under A icle 8), including where those orders may be con dential and
appear as the online pla orms’ own decision. This may not have been intended, and
underscores the implications of ADR provisions that have not been ful y thought
through.
● Fragmentation and confusion: The use of ADR by content uploaders to review any
content moderation decision is highly likely to result in contradicting decisions by

di erent ADR bodies in di erent Member States as regards the same issues or policies.
Given the scale of content moderation that online pla orms engage in, trying to make
sense of a patchwork of o en contrasting (but nonetheless binding) decisions by
di erent bodies across the EU risks paralysing online pla orms’ content moderation
systems.
B. Publication of statement of reasons (A icle 15)
We are concerned that the provisions in A icle 15 lack clear value for users and regulators, and
could risk user privacy, lead to abuse by bad actors, and inte ere with law enforcement
investigations.
● Publication: Making al statements of reasons available to the public (under A icle 15(4))
would lead to undue burdens for hosting services, without clear value for users or
regulators. Pla orms would need to examine every single statement of reasons to
remove personal data. Meanwhile, individual users wil already be in a position to
understand why ce ain action was taken over content they uploaded through
individual statements of reasons addressed to them. Similarly, public authorities may
request access to statements of reasons through their investigation powers under the
DSA. Publication would also e ectively provide a roadmap for bad-faith actors to game
the services’ content moderation systems.
● Level of detailIn addition, we are concerned by the granular level of detail we are
required to include in statements of reasons. We note that there is a fair amount of
tension between (i) treating notices in a timely manner (under A icle 14) and, more
general y, removing harmful content promptly, and (i ) dra ing statements of reasons
for content removals to share with content uploaders “at the latest at the time of the
removal or disabling of access” (under A icle 15). In addition, it may undermine e o s
to use technology for detection and removal of scaled abuse, e.g. for spam. We urge
policymakers to adopt a more exible approach so that the provision does not apply
where a detailed statement of reasons may not be appropriate, e.g. for spam and other
scaled abuse, and for removals of child sexual abuse material to avoid inte ering with
potential law enforcement action.
C. Limits on automation in complaint-handling (A icle 17(5))
The text in A icle 17(5) is too rigid in requiring that no decision on appeal should be taken
solely on the basis of automated means. This is not reasonable given the scale at which
content moderation takes place, including around the bil ions of spam or bad ads content. The
DSA should not undermine pla orms’ ability to detect and remove scaled abuse. Also, as
occurred during the COVID pandemic, there are situations in which this may become simply
infeasible.

A more appropriate outcome would be a risk-based approach to appeals, using a combination
of human review and automation. For more egregious or nuanced cases online pla orms may
indeed need to more heavily rely on expe  human review.
Safeguarding transparency and data access
Transparency can be insigh ul without being overly rigid, risking privacy, or enabling bad actors
There is no one-size- ts-al approach that makes sense across services, and meaningful
transparency cannot come at the expense of user privacy or enabling bad actors. Safeguards
should be added in the DSA to ensure transparency and data access obligations are
reasonable,  exible, and propo ionate.
● Transparency repo ing obligations (A icles 13, 23, and 33): The transparency repo ing
obligations imposed on intermediaries are extremely broad. Policymakers should
careful y consider the objective that each requirement seeks to achieve and de ne its
scope in a propo ionate manner, taking due account of what level of transparency is
meaningful for users and feasible for intermediaries. For example:
○ Providing information on any content moderation that intermediaries engage in
(under A icle 13) is likely to (i) result in information overload that is di cult to
make sense of, (i ) provide a roadmap for bad-faith actors to game content
moderation systems, and (i i) involve a signi cant amount of engineering e o
and associated costs, potential y crippling SMEs. A icle 13(1)(c) should, at a
minimum, be limited to content that is removed or disabled by the intermediary.
Final y, the requirement in A icle 13(1)(d) to repo average turnaround time
should be removed, as it may be an ine ective metric and could encourage
pla orms to make hasty decisions rather than work expeditiously but careful y
to review content.
○ The requirement to provide information on the average monthly active
recipients of the service in each Member State every six months (under A icle
23(2)) imposes a dispropo ionate burden on online pla orms. The 45 mil ion
user threshold to qualify as a very large online pla orm applies across the EU,
irrespective of Member State. It is therefore unclear why this metric is required.
○ Transparency repo ing templates (provided as a possibility under A icle 23(4))
are too rigid to take account di erences between services. They may become a
repo ing “straightjacket” that disto s the content moderation e o s di erent
online pla orms engage in. Online pla orms should be provided with adequate
exibility to repo  on their e o s.

○ It is not clear why users would need to have access to risk assessment repo s,
risk mitigation measures, audit repo s, or audit implementation repo s under
A icle 33(2). Obliging very large online pla orms to engage in a con dential
information redaction process prior to annual public disclosures would be
dispropo ionate, given the level of detail included in those repo s is unlikely to
be of interest to the average user. In addition, making information on risk
exposure and existing vulnerabilities public has the potential to be exploited by
nefarious actors. These repo s should rather be made accessible to regulators
only as a means to ensure accountability of very large online pla orms.
● National authorities’ data gathering powers (A icle 9): A icle 9 does not contain the
necessary safeguards for authorities to access user data. It creates legal unce ainty, as
its requirements are inconsistent with, and push past the guardrails of, the dra
e-Evidence Regulation. We believe A icle 9 should match the standards and principles
of the e-Evidence Regulation, including the need for harmonised legal frameworks for
cross-border law enforcement requests within the EU, and strong procedural and
substantive safeguards.
● Proactive noti cations to authorities (A icle 21): As wri en, the requirement under
A icle 21 for a service to notify authorities where it “becomes aware of any information
giving rise to a suspicion that a serious criminal o ence involving a threat to the life or
safety of persons has taken place” would improperly shi
the function of law
enforcement investigation from government to private actors. We believe this A icle
should be aligned with the language used and safeguards included in the dra Terrorist
Content Online Regulation. This would ensure the DSA re ects Europe’s strong tradition
of protecting privacy as a fundamental right.
● Access to data by researchers (A icle 31): Researchers need to be able to access data
to scrutinise or investigate issues of societal concern. However, as A icle 31 is currently
dra ed, there are vi ual y no safeguards around what data may be requested, how
such data may be accessed, and what may be done with the data. Suggested
safeguards include:
○ De ning "reasoned request" to set parameters around what information can be
requested and shared with ve ed researchers, in line with the GDPR data
minimisation principle.
○ Al owing online pla orms to take additional measures to protect the privacy of
data subjects (e.g. through pseudonymisation), where appropriate.
○ Al owing online pla orms to object to methods of data transmission that they
do not consider su ciently secure, and to set limits on what can be done with

the data and clarify that the data should not be fu her shared/disclosed, in line
with the GDPR purpose-limitation principle.
● Commission access to databases and algorithms (A icle 57): A icle 57 lacks
safeguards, which are of heightened impo ance given that the provision relates to
highly commercial y sensitive information. Providing explanations over databases and
algorithms in response to information requests by the Commission would be more
propo ionate than granting direct access. In addition, such information requests
should only be directed to online pla orms on the basis of a non-compliance
investigation and under strict con dentiality safeguards.
Providing meaningful insights to oversight bodies
The auditing framework should suppo  robust independent assessments
It is impo ant for independent expe s to be able to verify the risk assessments and risk
mitigation measures of very large online pla orms (VLOPs). An audit regime under the DSA
should suppo robust analysis by auditors and provide meaningful insights to oversight bodies
into how VLOPs are seeking to comply with DSA obligations. The audit regime as currently
proposed may not achieve these aims.
The fol owing suggestions would improve the auditing framework:
● The frequency and scope of routine audits (A icle 28(1)):
○ To al ow su cient time for auditing activities, the frequency of routine audits
under A icle 28(1) should be at least every two years.
○ In line with the recommendations of this non-paper concerning Codes of
Conduct and Crisis Protocols, the DSA should exclude these frameworks from
the scope of audits under A icle 28(1). In any event, the provisions on Codes of
Conduct (A icle 35) and on Crisis Protocols (A icle 37) already envisage that
there wil be repo ing on the measures taken under those frameworks; such
repo ing wil al ow assessments that are tailored and more appropriate to the
measures at issue than the broader auditing framework.
○ In ce ain circumstances it wil be bene cial to have the remediation plans of
VLOPs independently audited (A icle 50(3)). Where this does occur, and the
relevant assessments and measures taken by VLOPs are deemed adequate,
these aspects should be excluded from the scope of the next routine audit
under A icle 28(1).
● Triggers for ad hoc, voluntary audits (A icle 50(3)): Given the range of obligations for
VLOPs under Section 4 of Chapter 3, the DSA should clarify the circumstances in which

the Digital Services Coordinator (DSC) of establishment may request an ad-hoc audit
of the action plan under A icle 50(3). The DSC should only be able to trigger a request
when there is evidence that VLOPs have diverged from baseline compliance standards.
● The timeframe for action plans: A period of one month is insu cient to develop an
audit implementation repo (A icle 28(4)) or remediation plan (A icle 50(2)). The DSA
should adopt an objectives-based approach, where remediation timelines are based on
the scope, severity and complexity of the auditor’s recommendations or the decision of
a DSC of establishment. A mechanism should be added whereby VLOPs would have a
minimum of 45 days to acknowledge the recommendations, scope the work, and
communicate a timeline for an action plan. Such an approach would suppo
propo ionate process rules, linking the response time to the scope, severity, and
complexity of the recommendations.
● Adopting a risk-based approach to audit ndings (A icle 28(3)): To suppo
the
development of action plans and remediation, the DSA should adopt a risk-based
approach to audit ndings. For example, rather than ‘positive, positive with comments,
or negative’ assessments (as is currently proposed in A icle 28(3)), the risk-based tiers
could be:
○ No/limited control gaps/ ndings, with observations
○ Medium control gaps/ ndings - 6 month remediation timeline
○ High control gaps/ ndings - 6 month remediation timeline
○ Critical control gaps/ ndings - 3 month remediation timeline