Portal TFL

TFL Vsebine / TFLGlasnik

Pravni izzivi določanja cen z algoritmi z vidika varstva potrošnikov

O PUBLIKACIJI in AVTORJU
ŠTEVILKA in LETO IZDAJE
AVTOR
Asja Vrbinc, sodniška pripravnica na Višjem sodišču v Ljubljani
Datum
04.02.2025
Rubrika
Članki
Pravna podlaga
Povezave
Podsistem TAX
Podsistem FIN
Podsistem LEX
Povzetek
V članku obravnavam prakso prilagajanja cen na podlagi podatkov, zbranih o potrošnikih. Vse večja digitalizacija in porast spletne prodaje podjetjem omogočata dostop do vedno večje količine podatkov o posameznikih, katerih gospodarskega potenciala in prednosti se podjetja vse bolj zavedajo. Navedeno velja tudi na področju določanja cen za blago in storitve, kjer se podjetja vse bolj zanašajo na podatke in njihovo obdelavo ter na tej podlagi potrošnikom določajo različne cene za sicer iste produkte. Gre za t. i. algoritemsko cenovno diskriminacijo oziroma personalizacijo cen. Čeprav praksa še ni zelo razširjena, je zaradi njene vedno lažje uporabe in prednosti, ki jih prinaša podjetjem, pričakovati njen nadaljnji razmah. To prinaša nove izzive tudi za pravo.
BESEDILO
Cilj članka je predstaviti sedanjo pravno ureditev Evropske unije z vidika njene (ne)zadostnosti za soočanje z vse prisotnejšo prakso določanja cen z algoritmi. V ta namen članek najprej poda okvirni oris delovanja algoritemske cenovne diskriminacije, v nadaljevanju pa sta predstavljena pomen prakse za potrošnike in njihov odnos do nje. Večinski del članka se osredotoča na relevantno pravno ureditev EU, pri čemer so predstavljene in kritično ovrednotene tri z vidika potrošnikov najpomembnejše pravne panoge, tj. pravo varstva potrošnikov, pravo varstva podatkov in protidiskriminacijsko pravo.

Zaradi omejenega obsega članka se ta osredotoča le na spletno prodajo ter na horizontalna razmerja med potrošniki in podjetji. V zaključnem delu je le na kratko začrtana potreba po nadaljnji regulaciji pojava, ki bo omogočala višjo raven zaščite potrošnikov in hkrati ne bo čezmerno zatrla koristi prakse ter nadaljnjega razvoja digitalnega gospodarstva.

Algoritemska cenovna diskriminacija

Najbolj splošno sprejeta definicija algoritemsko cenovno diskriminacijo opisuje kot razlikovanje spletne cene za iste izdelke ali storitve na podlagi informacij, ki jih ima podjetje o strankah oziroma potencialnih strankah.2 Bistvenega pomena za uspešno algoritemsko cenovno diskriminacijo so torej informacije oziroma podatki o posameznikih, katerih obseg je zaradi tehnološkega napredka in vse večje digitalizacije potrošniških trgov vedno večji. Posamezniki tako načrtno ali nenačrtno, kot stranski produkt vsakodnevnega življenja, ustvarjajo ‒ in podjetja zbirajo ‒ ogromne količine podatkov3: od podatkov o spolu, starosti, lokaciji prebivališča in številu družinskih članov pa vse do podatkov o uporabljeni napravi in operacijskem sistemu, objavah na družbenih omrežjih, zgodovini nakupov ter obiskanih spletnih straneh.4 Za takšno enormno količino podatkov v digitalni obliki se je uveljavil izraz veliko podatkovje (angl. big data).5

Vendar takšni podatki sami zase za podjetja nimajo posebne vrednosti. To pridobijo, ko so ustrezno obdelani in analizirani, pri čemer se podjetja zanašajo na uporabo vse naprednejših algoritmov (angl. self-learning algorithms).6 Podjetja z njihovo pomočjo ustvarjajo vse bolj podrobne profile o posameznikih, njihovih željah in preferencah, to pa jim omogoča vedno natančnejšo oceno njihove pripravljenosti plačati (angl. willingness to pay). Cilj podjetij je namreč določati različne cene na način, da je postavljena cena čim bližje najvišji ceni, ki jo je posamezni potrošnik ‒ oziroma skupina potrošnikov ‒ pripravljen plačati za določeno blago oziroma storitev (angl. reservation price),7 in na ta način ekstrahirati kar največ dobička zase. Pri tem velja poudariti, da zbiranje in obdelava podatkov za zdaj še ne omogočata popolne diferenciacije med posamezniki, zato določitev najvišje cene za slehernega potrošnika še ni mogoča. Vendar je le vprašanje časa, kdaj bo.

Za razliko od podjetij, ki jim uporaba algoritmov pri določanju cen prinaša koristi, pa potrošnikom v splošnem bolj škoduje8 in pogosteje pomeni znižanje ravni tako individualne kot tudi skupne blaginje.9 Zaradi netransparentnosti podjetij pri izvajanju te prakse imajo potrošniki nadalje občutek, da so obravnavani arbitrarno ter da podjetja med njimi nepošteno in neupravičeno razlikujejo. Hkrati obstaja bojazen poseganja v zasebnost, saj potrošniki vse težje kakršenkoli (osebni) podatek obdržijo »tajen«.

Botrovanje personaliziranim cenam s strani potrošnikov tako težko preseneča, saj so jim s pomočjo obdelave njihovih podatkov ponujene različne cene za isto blago in ob istem času, takšno razlikovanje pa ni niti univerzalno niti transparentno.10

Zaradi navedenega je evidentno, da algoritemska cenovna diskriminacija povzroča resne pomisleke pri varstvu potrošnikov in poštenosti potrošniškega trga, kar zahteva primerne pravne odzive, tudi na ravni EU. Pravo EU personalizacije cen sicer ne prepoveduje per se, vendar ji na več načinov postavlja raznovrstne omejitve in pravila. Zaradi omejenega obsega prispevka so strnjeno predstavljene le določbe, ki so najbolj relevantne za prakso personalizacije cen, z vidika treh pravnih področij, hkrati je zavzet kritični pristop do sedanje pravne ureditve EU. EU sicer prepoznava težave, vezane na prakso algoritemske cenovne diskriminacije, vendar se v svoji sedanji obliki ni sposobna uspešno zoperstaviti tej vse bolj prisotni praksi in njenim posledicam.

Pravo varstva potrošnikov

V letih 2018 in 2019 je prišlo do obsežne reforme potrošniškega prava EU, poimenovane Nov dogovor za potrošnike (angl. New deal for consumers). Enega njegovih ključnih stebrov predstavlja Direktiva (EU) 2019/216111 (imenovana tudi Omnibus direktiva), ki je kot prva zares prepoznala in naslovila prakso algoritemske cenovne diskriminacije. Enega njenih najpomembnejših prispevkov predstavlja uvedba nove predpogodbene informacijske dolžnosti za trgovce, ki je bila na njeni podlagi vnesena v Direktivo 2011/83/EU o pravicah potrošnikov12 (angl. tudi Consumer Rights Directive). Ta trgovcu nalaga, da potrošniku zagotovi podatek o tem, da je bila cena prilagojena na podlagi avtomatiziranega sprejemanja odločitev.13 S tem naj bi se potrošnikom omogočilo, da sprejemajo informirane odločitve o svojih nakupih. Nova obveznost informiranja tako predstavlja pomemben korak k večanju transparentnosti prakse, vendar je z vidika vsebine podanih informacij v svoji sedanji obliki nezadostna. Zahteva namreč zgolj razkritje informacije o uporabi tehnike prilagajanja cen, trgovcu pa ni treba razkriti meril in parametrov, ki so vplivali na konkretno prilagojeno ceno.14 To bistveno omejuje vrednost informacij, ki jih potrošniki prejmejo v okviru predmetne obveznosti informiranja.

Če trgovec svoje dolžnosti informiranja ne izpolni, to predstavlja nepošteno poslovno prakso, skladno z Direktivo 2005/29/ES o nepoštenih poslovnih praksah15 (angl. tudi unfair commercial practices directive). Namreč, kljub temu, da praksa algoritemske cenovne diskriminacije sama po sebi ni prepovedana in ne pomeni nepoštene poslovne prakse, to velja le, če trgovci potrošnike ustrezno seznanijo z njenim obstojem in jih v zvezi s prakso ne zavajajo. Če trgovec svojo obveznost informiranja krši in potrošnika ne obvesti o tem, da je bila cena prilagojena, bo to pomenilo nepošteno poslovno prakso.

Pravo varstva podatkov

Varstvo posameznikov pri obdelavi osebnih podatkov je prepoznano kot ena temeljnih pravic prava EU.16 Enega ključnih pravnih virov pri tem predstavlja Splošna uredba o varstvu podatkov17 (GDPR). GDPR sicer prepozna potencialne nevarnosti uporabe algoritmov in oblikovanja profilov ter potrebo po njihovi posebni obravnavi, vendar je tudi ta še nezadostna pri soočanju z algoritemsko cenovno diskriminacijo. Načela, pravice in obveznosti GDPR se namreč aktivirajo le v primeru obdelave osebnih podatkov v celoti ali delno z avtomatiziranimi sredstvi (prvi odstavek 2. člena GDPR). Domet določbe postaja v času vse večjega nabora podatkov in vse naprednejših algoritmov vse bolj problematičen ter omejujoč. Kot taka se izkaže že sama definicija osebnih podatkov,18 ki velik del podatkov, t. i. neosebne podatke, izključuje iz dometa varstva, ki ga nudi GDPR.19 Izvzetje takšnih neosebnih podatkov, vključno z anonimiziranimi podatki, se v primerih uporabe algoritmov za njihovo obdelavo kaže kot posebej problematično in nerazumno.20 Neosebni podatki so za odločanje algoritmov namreč enako pomembni kot osebni. Potencialno katerikoli podatek, še tako »majhen« in na videz nepomemben, je lahko uporabljen za ustvarjanje profilov posameznikov in personalizacijo cen.

Izvzetje neosebnih podatkov upravljavcem tudi omogoča, da se pri obdelavi teh podatkov povsem izognejo spoštovanju pravil in načel iz 5. člena GDPR ter tovrstnih podatkov ne obdelujejo na zakonit, pošten in pregleden način.21 To še dodatno povečuje informacijsko asimetrijo in neuravnoteženost položajev med potrošniki na eni strani in podjetji na drugi.

Zaradi navedenega obstaja potreba po prilagoditvi definicije osebnih podatkov, saj se dandanes kaže kot neustrezna. Če lahko namreč vedno več podatkov vpliva na posameznike, bi moralo biti tudi vedno več podatkov pravno zaščitenih v okviru GDPR.22

Nadalje se kot vse bolj problematičen kaže model privolitve posameznika kot najpogosteje uporabljene pravne podlage za zakonitost obdelave podatkov iz 6. člena GDPR. Skladno z GDPR mora biti privolitev prostovoljna, izrecna, informirana in nedvoumna ter podana z jasnim pritrdilnim dejanjem.23 V poplavi podatkov, s katero so potrošniki danes vsakodnevno soočeni, je izpolnjenost takšnih pogojev vse bolj vprašljiva, privolitev posameznika pa tako po mnenju nekaterih ne bi več smela predstavljati (samostojne) pravne podlage za zakonitost obdelave osebnih podatkov.24

Izpostaviti velja tudi določbo 22. člena GDPR, ki si z namenom varstva posameznikov prizadeva omejiti uporabo avtomatiziranega odločanja. V svojem prvem odstavku določa: »Posameznik, na katerega se nanašajo osebni podatki, ima pravico, da zanj ne velja odločitev, ki temelji zgolj na avtomatizirani obdelavi, vključno z oblikovanjem profilov, ki ima pravne učinke v zvezi z njim ali na podoben način nanj znatno vpliva.« Vendar pa določba dopušča več možnih razlag in sproža vprašanja glede njene uporabe ter uporabnosti, kot taka pa ustvarja negotovost v zvezi z njeno interpretacijo.25

Glede na navedene probleme je mogoče ugotoviti, da GDPR v svoji sedanji obliki še ne predstavlja zadostnega orodja, ki bi se bilo sposobno učinkovito soočiti z izzivi, ki jih prinaša algoritemska cenovna diskriminacija, in posameznikom nuditi ustrezno raven zaščite.

Protidiskriminacijsko pravo

Diferenciacija med potrošniki predstavlja samo bistvo algoritemske cenovne diskriminacije, zaradi česar se protidiskriminacijsko pravo pokaže za izredno pomembno pri soočanju s posledicami prakse.

Načelo enakosti in prepoved diskriminacije kot njegova posebna oblika sta bila prvotno sicer razvita z namenom varstva posameznikov v odnosu do javnih organov, vendar se kot vse pomembnejša kažeta tudi na področju zasebnega prava. Njuna uporaba v horizontalnih razmerjih je sicer nekoliko atipična in v nasprotju s samim bistvom pogodbenega prava, tj. z načeloma zasebnopravne avtonomije in pogodbene svobode, vendar pa uporaba algoritmov takšno intervencijo prepovedi diskriminacije in omejevanja pogodbene svobode vse bolj opravičuje, saj se zaradi njihove uporabe znatno povečuje neravnovesje moči v škodo potrošnikov.26

Z namenom zaščite pred diskriminacijo v horizontalnih razmerjih so bile na podlagi 19. člena PDEU sprejete štiri direktive, od katerih se dve nanašata na relevantno področje dostopa do blaga in storitev. Gre za Direktivo 2000/43/ES27 in Direktivo 2004/113/ ES28. Pri tem velja poudariti, da direktivi sicer nikjer izrecno ne omenjata, da nudita zaščito pred cenovno diskriminacijo, vendar se zdi imanentno pojmu »dostopa do blaga in storitev«, da vsebuje tudi aspekt določanja cen.29 Vendar pa predmetni direktivi še zdaleč nista zadostno opremljeni za uspešno soočanje s prakso algoritemskega določanja cen. Njun manko je najbolj izrazit z vidika skoposti razlogov, na podlagi katerih je diskriminacija pri dostopu do blaga in storitev prepovedana. Ti so omejeni na spol (skladno z Direktivo 2004/113/ES) in raso ali narodnost (skladno z Direktivo 2000/43/ES). Po trenutni protidiskriminacijski zakonodaji EU bi se tako le praksa personalizacije cen, ki bi cene prilagajala na podlagi spola, rase ali narodnosti, lahko štela za nezakonito, ne pa tudi tista, ki bi temeljila na ostalih, sicer pravno zaščitenih razlogih na ravni primarne zakonodaje EU, kot so npr. vera, invalidnost, starost in spolna usmerjenost.30 Problematičnost ureditve je prepoznala tudi Evropska komisija, ki je že leta 2008 predlagala sprejetje nove protidiskriminacijske direktive, t. i. horizontalne direktive31, vendar predlog vse do danes ni bil sprejet.

V dobi uporabe algoritmov se tako ozek domet zaščite na področju dostopa do blaga in storitev kaže za še dodatno problematičnega, saj ima uporaba algoritmov ravno tu največje in najbolj daljnosežne posledice. 32

Nadalje se – glede na dinamičnost algoritemskih procesov in njihovo sposobnost za iskanje korelacij – kot vse bolj problematičen kaže tudi sam nabor zaščitenih razlogov na ravni primarne zakonodaje EU. »Neškodljivi « podatki, kot so npr. dohodek, poštna številka in zgodovina brskanja, so za odločanje algoritmov enako pomembni kot osebni podatki, saj lahko na njihovi podlagi ustvarjajo vzorce in zaključke s škodljivimi oziroma diskriminatornimi posledicami za posameznike, vendar kljub temu ne gre za podatke, na podlagi katerih bi bila diferenciacija cen prepovedana, potrošnikom pa nudena pravna zaščita.33

Zaradi vsega navedenega se bolj kot kdajkoli prej zastavlja vprašanje o primernosti veljavne protidiskriminacijske zakonodaje EU ter o postavljenih mejah med prepovedano diskriminacijo in tisto, ki zakonsko (še) ni urejena. Oblike diskriminacije, ki jih prinaša uporaba algoritmov pri kreiranju cen, se namreč na več načinov razlikujejo od »človeških« oblik diskriminacije, ki jim je prilagojen trenutni okvir protidiskriminacijskega varstva v EU. Tako bi bilo nujno potrebno, da se novi realnosti prilagodi tudi pravo, saj bo lahko le tako nudilo zadostno raven zaščite potrošnikom, ki so postavljeni v vedno ranljivejši položaj.34

Sklep

Po obravnavi relevantnega regulativnega okvira lahko sklenem, da se pravo EU trenutno ni sposobno uspešno zoperstaviti vse prisotnejši praksi algoritemske cenovne diskriminacije, kot tako pa lahko zagotovi le delno funkcionalni pristop. Zato obstaja potreba po sprejetju novih oziroma izboljšanih regulatornih ukrepov, ki bodo prakso zmožni uspešno obvladovati, potrošnikom pa bodo zagotovili ustrezno in učinkovito zaščito pred pretnjami uporabe algoritmov pri oblikovanju cen.

Ne glede na navedeno pa je pri regulaciji pojava in uporabi zakonodajnih ukrepov treba vzeti v zakup tudi pozitivne vidike algoritemske cenovne diskriminacije. Čezmerna regulacija bi namreč lahko nenamerno povzročila učinke, ravno nasprotne želenim, tj. zmanjšala skupno blaginjo in oškodovala potrošnike, hkrati pa zavrla tehnološki razvoj in zatrla prednosti digitalnega gospodarstva.35


1 Članek je strnjen povzetek glavnih vidikov in izsledkov mojega magistrskega diplomskega dela z naslovom »Določanje cen z algoritmi in varstvo potrošnikov«, ki sem ga napisala pod mentorstvom doc. dr. Karmen Lutman na Pravni fakulteti Univerze v Ljubljani.

2 Poort, J., Zuiderveen Borgesius, F. J.: Does everyone have a price? Understanding people’s attitude towards online and offline price discrimination, Internet Policy Review, 8(1), 2019, str. 2.

3 Selinšek, L.: Veliko podatkovje v pravu in ekonomiji, Lexonomica, letnik 7, številka 2, 2015, str. 163.

4 European Commission, Consumers, Health, Agriculture and Food Executive Agency: Consumer market study on online market segmentation through personalised pricing/offers in the European Union final report, 2018, str. 50, 51; Moriarty, J.: Why online personalized pricing is unfair, Ethics and Information Technology, 2021, str. 496.

5 Selinšek, L., naved. delo, str. 163, 167; podrobneje gl. Ezrachi, A., Stucke M. E.: Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy, Harvard University Press, 2016, str. 20.

6 European Commission, European political strategy centre: Enter the Data Economy – EU Policies for a Thriving Data Ecosystem, Issue 21 / 11 January 2017, Publications Office, 2017, str. 6.

7 Moriarty, J., naved. delo, str. 495.

8 Gl. npr. Ezrachi, A., Stucke M. E.: Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy, Harvard University Press, 2016, str. 7,8.

9 BEUC (Helberger, N., Lynskey, O., Micklitz, H-W., Rott, P., Sax, M., Strycharz, J.): EU Consumer Protection 2.0, Structured Asymetries in digital consumer markets, 2021, str. 114.

10 OECD, Directorate for financial and enterprise affairs competition committee: Personalised Pricing in the Digital Era Background Note by the Secretariat, DAF/ COMP(2018)13, str. 10.

11 Direktiva (EU) 2019/2161 Evropskega parlamenta in Sveta z dne 27. novembra 2019 o spremembi Direktive Sveta 93/13/EGS in direktiv 98/6/ES, 2005/29/ES ter 2011/83/EU Evropskega parlamenta in Sveta zaradi boljšega izvrševanja in posodobitve pravil Unije o varstvu potrošnikov.

12 Direktiva 2011/83/EU Evropskega parlamenta in Sveta z dne 25. oktobra 2011 o pravicah potrošnikov, spremembi Direktive Sveta 93/13/EGS in Direktive 1999/44/ ES Evropskega parlamenta in Sveta ter razveljavitvi Direktive Sveta 85/577/EGS in Direktive 97/7/ES Evropskega parlamenta in Sveta.

13 Gl. čl. 4(4)(a)(ii) Direktive (EU) 2019/2161.

14 European Parliament, Policy Department for Economic, Scientific and Quality of Life Policies Directorate-General for Internal Policies (Rott, P., Strycharz, J., Alleweldt, F.): Personalised pricing, 2022, str. 30.

15 Direktiva Evropskega parlamenta in Sveta 2005/29/ES z dne 11. maja 2005 o nepoštenih poslovnih praksah podjetij v razmerju do potrošnikov na notranjem trgu ter o spremembi Direktive Sveta 84/450/EGS, direktiv Evropskega parlamenta in Sveta 97/7/ES, 98/27/ES in 2002/65/ES ter Uredbe (ES) št. 2006/2004 Evropskega parlamenta in Sveta.

16 Tudi 8. člen Listine Evropske unije o temeljnih pravicah in 16. čl. Pogodbe o delovanju EU (PDEU) določata, da ima vsakdo pravico do varstva osebnih podatkov, ki se nanašajo nanj.

17 Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES.

18 Gl. čl. 4(1) GDPR.

19 Purtova, N.: The Law of Everything. Broad Concept of Personal Data and Future of EU Data Protection Law, Law, Innovation and Technology 10(1), 2018, str. 53.

20 Selinšek, L., naved. delo, str. 177; Purtova, N., naved. delo, str. 47, 48; Steppe, R.: Online price discrimination and personal data: A General Data Protection Regulation perspective, Computer Law & Security Review, Volume 33, Issue 6, str. 775.

21 Čl. 5(1)(a) GDPR

22 Purtova, N., naved. delo, str. 73.

23 Čl. 4(11) GDPR; uvodna izjava št. 32 GDPR.

24 Gl. npr. European Parliament. EPRS (Sartor, G., Lagioia, F.): The impact of the General Data Protection Regulation (GDPR) on artificial intelligence, 2020, str. 49; Mantelaro, A.: The future of consumer data protection in the E.U.: Re-thinking the “notice and consent” paradigm in the new era of predictive analytics, Computer Law & Security Review, Volume 30, Issue 6, 2014, str. 653.

25 Več gl. Article 29 Data protection working party: Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679 (WP251rev.01), str. 19‒22; Malgieri, G., Comandé, G.: Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation. International Data Privacy Law, vol. 7, Issue 3, Forthcoming, 2017, str. 13‒17; Zuiderveen Borgesius, F. in Poort, J.: Online Price Discrimination and EU Data Privacy Law, Journal of Consumer Policy, 40(3), 2017, str. 362.

26 Mak, C.: Human Rights in Private Law, Uncovering European private law, Research Paper No. 4, Amsterdam Law School Research Paper No. 2022-51, Amsterdam Centre for Transformative private law Working Paper No. 2022-10, 2022, str. 1, 2.; Lutman, K.: Artificial Intelligence and the Prohibition of Discrimination in the EU: A Private Law Perspective, v Završnik, A., Simončič, K. (2022). Artificial Intelligence, Social Harms and Human Rights. Critical criminological perspectives, 2022, str. 79.

27 Direktiva Sveta 2000/43/ES z dne 29. junija 2000 o izvajanju načela enakega obravnavanja oseb ne glede na raso ali narodnost.

28 Direktiva Sveta 2004/113/ES z dne 13. decembra 2004 o izvajanju načela enakega obravnavanja moških in žensk pri dostopu do blaga in storitev ter oskrbi z njimi.

29 Lutman, K., naved. delo, str. 92.

30 Drechsler, L., Benito Sánchez, J. C.: The Price Is (Not) Right: Data Protection and Discrimination in the Age of Pricing Algorithms, European Journal of Law and Technology, 2018, str. 5; Xenidis, R., Senden, L.: EU Non-Discrimination Law in the Era of Artificial Intelligence: Mapping the Challenges of Algorithmic Discrimination in Ulf Bernitz et al (eds), General Principles of EU law and the EU Digital Order (Kluwer Law International, 2020), 2020, str. 18.

31 Predlog Direktive Sveta o izvajanju načela enakega obravnavanja oseb ne glede na vero ali prepričanje, invalidnost, starost ali spolno usmerjenost z dne 2. 7. 2008.

32 Xenidis, R., Senden, L., naved. delo, str. 15.

33 Mann, M., Matzner, T.: Challenging algorithmic profiling: The limits of data protection and anti-discrimination in responding to emergent discrimination, Big Data & Society, 6(2), 2019, str. 2‒6; Xenidis, 2021, str. 738.

34 Xenidis, R.: Tuning EU Equality Law to Algorithmic Discrimination: Three Pathways to Resilience, Maastricht Journal of European and Comparative Law, Vol. 27(6), 2021, str. 738.

35 Dube, J.-P. H., Misra, S: Personalized Pricing and Consumer Welfare, 2021, str. 2, 4.

BREZPLAČNI PREIZKUS

Tax-Fin-Lex d.o.o.
pravno-poslovni portal,
založništvo in
izobraževanja

Tax-Fin-Lex d.o.o.
Železna cesta 18
1000 Ljubljana
Slovenija

T: +386 1 4324 243
E: info@tax-fin-lex.si

CERTIFIKATI IN EU PROJEKTI

 
x - Dialog title
dialog window