DeepSeek kontra OpenAI: jak spór o kopiowanie modeli może zmienić rynek sztucznej inteligencji

DeepSeek kontra OpenAI: jak spór o kopiowanie modeli może zmienić rynek sztucznej inteligencji

Nowy front w wojnie o sztuczną inteligencję: o co OpenAI oskarża chińskie DeepSeek

Konflikt między OpenAI a chińskim startupem DeepSeek to jeden z pierwszych głośnych sporów, który dotyka samych fundamentów obecnej rewolucji w sztucznej inteligencji. W centrum zarzutów znajduje się pytanie, czy można budować konkurencyjne modele językowe, masowo ucząc je na odpowiedziach innego, komercyjnego systemu – i czy taka praktyka jest jeszcze dozwoloną inspiracją, czy już naruszeniem prawa oraz zasad uczciwej konkurencji.

Z informacji przekazanych przez OpenAI do Specjalnej Komisji ds. Chin w Izbie Reprezentantów USA wynika, że DeepSeek miało wykorzystywać zaawansowane techniki do pozyskiwania wyników z wiodących amerykańskich modeli AI, w tym modeli OpenAI, aby trenować swojego chatbota R1. OpenAI twierdzi, że chińska firma stosowała „techniki destylacji” oparte na masowym zbieraniu outputów z płatnych usług i omijaniu zabezpieczeń chroniących przed takim użyciem. Według osób zaznajomionych ze sprawą, w śledztwo zaangażowany jest także Microsoft, kluczowy partner technologiczny i inwestor OpenAI.

Spór wykracza daleko poza konflikt dwóch firm. Dotyczy on całego ekosystemu AI: dostawców modeli, firm wdrażających rozwiązania oparte na sztucznej inteligencji, regulatorów oraz użytkowników końcowych. Od tego, jak zostanie rozstrzygnięty, może zależeć przyszła struktura rynku, tempo rozwoju technologii oraz standardy prawne regulujące korzystanie z modeli językowych.

Stawką jest nie tylko ochrona wielomiliardowych inwestycji w infrastrukturę i badania, ale również bezpieczeństwo narodowe i kontrola nad przepływem zaawansowanych technologii pomiędzy Stanami Zjednoczonymi a Chinami. Jednocześnie sprawa ta zmusza przedsiębiorstwa na całym świecie do ponownego przemyślenia, w jaki sposób korzystają z komercyjnych API i czy ich własne projekty rozwojowe – zwłaszcza te oparte na destylacji – są zgodne z prawem oraz regulaminami dostawców.

Kim jest DeepSeek i dlaczego jego model R1 wstrząsnął rynkiem AI

DeepSeek to stosunkowo młody chiński startup zajmujący się sztuczną inteligencją, który w bardzo krótkim czasie stał się jednym z najgłośniejszych graczy na globalnym rynku modeli językowych. Punktem zwrotnym było wprowadzenie modelu R1 – systemu o możliwościach zbliżanych w wielu testach do zachodnich odpowiedników, ale działającego przy znacznie niższych kosztach infrastruktury.

Dla biznesu kluczowe są trzy cechy R1. Po pierwsze, model został udostępniony w formule, którą wielu komentatorów określa jako de facto otwartą: dostęp do modelu, wag lub wariantów open-source’owych jest znacznie mniej obwarowany niż w przypadku wiodących graczy z USA. Po drugie, R1 jest oferowany bez wysokich abonamentów, które stały się standardem w segmencie komercyjnych API. Użytkownicy indywidualni oraz wiele firm może korzystać z niego bezpłatnie lub za ułamek kosztów porównywalnych rozwiązań. Po trzecie, DeepSeek postawił na agresywną dystrybucję – aplikacje oparte na R1 bardzo szybko trafiły na listy najpopularniejszych narzędzi AI, w tym w sklepach z aplikacjami mobilnymi.

To właśnie ten sukces rynkowy przyciągnął uwagę konkurentów. Zgodnie z doniesieniami, OpenAI wraz z Microsoftem rozpoczęły dochodzenie mające ustalić, czy dane treningowe wykorzystane przy budowie R1 zostały pozyskane w sposób sprzeczny z regulaminami komercyjnych usług, oraz czy DeepSeek używał zaawansowanych metod destylacji, aby odwzorować możliwości modeli OpenAI i innych amerykańskich laboratoriów. Według źródeł zbliżonych do administracji USA, przedstawiciele rządu mówią wręcz o „istotnych dowodach” na kopiowanie funkcjonalności amerykańskich systemów.

Nie dziwi więc, że R1 stał się źródłem silnej presji konkurencyjnej na zachodnie firmy. Model, który w testach użytkowników zachowuje się podobnie do droższych rozwiązań, a jednocześnie jest tańszy i szerzej dostępny, może wymuszać przyspieszenie prac nad bardziej efektywnymi, oszczędnymi energetycznie i cenowo systemami. Dla firm takich jak OpenAI, Anthropic czy Google to sygnał, że dotychczasowy model biznesowy oparty na stosunkowo wysokich opłatach za dostęp do API może wymagać poważnej korekty.

Na czym polegają techniki destylacji modeli i dlaczego budzą tak duże kontrowersje

Destylacja modeli (knowledge lub model distillation) to dobrze znana w środowisku badawczym technika, której celem jest przeniesienie „wiedzy” z większego, potężniejszego modelu do mniejszego, tańszego i bardziej efektywnego systemu. W praktyce polega to na tym, że mniejszy model – zwany często modelem uczniem – uczy się na podstawie odpowiedzi generowanych przez model nauczyciela.

Dobrym porównaniem jest sytuacja, w której uczeń nie ma dostępu do oryginalnych notatek nauczyciela ani do podręczników, z których nauczyciel się uczył. Zamiast tego zadaje mu tysiące pytań i zapamiętuje jego odpowiedzi, stopniowo ucząc się odtwarzać styl, sposób rozumowania i wiedzę nauczyciela. Uczeń nie kopiuje bezpośrednio notatek ani źródłowych materiałów, ale stara się możliwie wiernie naśladować zachowanie osoby bardziej doświadczonej.

Analogicznie w AI: nie kopiowany jest kod źródłowy czy wewnętrzne parametry modelu, lecz jego zachowanie – to, jak odpowiada na określone pytania. Wymaga to jednak wygenerowania ogromnej liczby odpowiedzi przez model nauczyciela. O ile w środowisku naukowym destylacja uchodzi za akceptowaną i użyteczną technikę, o tyle sytuacja komplikuje się, gdy odpowiedzi te pochodzą z komercyjnego API objętego ścisłymi warunkami korzystania.

Tutaj zaczyna się spór. Zgodnie z regulaminami większości wiodących dostawców, masowe pozyskiwanie outputów w sposób zautomatyzowany, ukrywający prawdziwe przeznaczenie danych lub skalę wykorzystania, jest zabronione. Dotyczy to w szczególności trenowania konkurencyjnych modeli na wynikach płatnych systemów bez wyraźnej zgody dostawcy. Według OpenAI, DeepSeek miał stosować „nowe, zakamuflowane metody” omijania zabezpieczeń i limitów, aby pobierać wystarczająco dużo odpowiedzi do efektywnej destylacji.

Z punktu widzenia amerykańskich firm jest to klasyczne „free-riding”: korzystanie z owoców wielomiliardowych inwestycji w infrastrukturę i badania bez ponoszenia proporcjonalnych kosztów. Chiński startup, płacąc relatywnie niewiele za dostęp do API (lub wręcz obchodząc część opłat dzięki obejściu limitów), miałby uzyskać know-how zakodowane w zachowaniu modelu, a następnie wykorzystać je w tańszym produkcie konkurencyjnym. Granica pomiędzy legalnym korzystaniem z API a bezprawnym pasożytowaniem na cudzej technologii okazuje się w tym przypadku wyjątkowo cienka.

Granice własności intelektualnej w epoce modeli językowych: co może być uznane za naruszenie

Spór OpenAI–DeepSeek uwidacznia, jak niejednoznaczne są obecnie zasady ochrony własności intelektualnej w świecie sztucznej inteligencji. Tradycyjnie prawo autorskie i ochrona tajemnicy przedsiębiorstwa obejmują takie elementy jak kod źródłowy, dokumentacja techniczna, architektura systemu czy konkretne zbiory danych. W AI pojawiają się jednak dodatkowe komponenty: parametry wytrenowanego modelu, bazy promptów, logi konwersacji, zbiory wygenerowanych odpowiedzi.

Po pierwsze, stosunkowo klarowna jest sytuacja przy bezpośrednim kopiowaniu kodu lub wag modelu bez licencji. Tego typu działania można zazwyczaj zakwalifikować jako naruszenie praw autorskich lub tajemnicy przedsiębiorstwa, o ile informacje nie były publicznie dostępne. Po drugie, znacznie trudniejsze do oceny jest wykorzystywanie „zachowania” modelu, czyli jego odpowiedzi. Czy masowe zbieranie outputów z komercyjnego API i używanie ich do trenowania nowego modelu stanowi już naruszenie prawa, czy jest jeszcze dozwoloną analizą funkcjonalności produktu?

Prawo autorskie tradycyjnie chroni formę wyrażenia, a nie samą funkcjonalność. Sam fakt, że dwa programy zachowują się podobnie, nie jest jeszcze dowodem naruszenia, jeśli nie doszło do kopiowania chronionych elementów. Dlatego tak istotna staje się rola innych instrumentów prawnych: ochrony tajemnicy przedsiębiorstwa, przepisów o ochronie baz danych oraz – co w tym sporze może być kluczowe – naruszenia regulaminów usług (terms of service).

Regulaminy komercyjnych API zwykle jasno zabraniają m.in. automatycznego scrapingu, obchodzenia limitów, podszywania się pod różnych użytkowników w celu zwiększenia dozwolonego wolumenu zapytań czy wykorzystywania wyników do trenowania konkurencyjnych modeli bez zgody dostawcy. Ich naruszenie może prowadzić do roszczeń kontraktowych (odszkodowania, kary umowne), ale także do zarzutów czynów nieuczciwej konkurencji.

Potencjalne roszczenia, jakie w podobnych sprawach mogłyby zostać podniesione, obejmują:

  • żądanie odszkodowania za naruszenie praw własności intelektualnej lub tajemnicy przedsiębiorstwa, jeśli udałoby się wykazać, że model konkurenta odtwarza chronione elementy w sposób niedozwolony;
  • roszczenia z tytułu naruszenia regulaminu usług i niedozwolonych praktyk rynkowych (np. wprowadzanie w błąd co do źródeł technologii, pasożytnicze korzystanie z cudzej infrastruktury);
  • wnioski o sądowe nakazy (injunctions) blokujące dalsze wykorzystywanie i komercjalizację spornego modelu, a nawet nakazujące jego wycofanie z rynku lub retrening na „czystych” danych.

Wielu prawników podkreśla, że ramy prawne w tym obszarze są dopiero kształtowane. W różnych jurysdykcjach mogą zapaść odmienne rozstrzygnięcia dotyczące tego, czy i w jakim zakresie destylacja oparta na outputach z komercyjnych API narusza prawo. Sprawa OpenAI–DeepSeek ma szansę stać się jednym z pierwszych precedensów, które pokażą, jak sądy podchodzą do granicy pomiędzy dozwolonym reverse engineeringiem a bezprawnym kopiowaniem modeli.

Geopolityczny wymiar sporu: wyścig USA–Chiny o dominację w sztucznej inteligencji

Konflikt wokół DeepSeek nie może być analizowany w oderwaniu od szerszego kontekstu strategicznej rywalizacji pomiędzy Stanami Zjednoczonymi a Chinami w obszarze zaawansowanych technologii. Amerykańskie władze już od kilku lat postrzegają zaawansowane modele AI jako zasób o znaczeniu strategicznym, porównywalny z najnowocześniejszymi chipami czy infrastrukturą telekomunikacyjną.

Świadczą o tym m.in. ograniczenia eksportowe nałożone na dostawy układów GPU do Chin, dyskusje na temat regulacji tzw. frontier models – najbardziej zaawansowanych systemów o potencjalnie wysokim wpływie na gospodarkę i bezpieczeństwo – oraz coraz ściślejsza współpraca firm takich jak OpenAI, Anthropic czy Google z administracją USA w obszarze bezpieczeństwa modeli. W tym kontekście informacje o możliwym „wycieku” możliwości amerykańskich modeli do chińskiego konkurenta przez destylację budzą szczególną wrażliwość decydentów w Waszyngtonie.

Dodatkowym elementem, który wzmacnia polityczny wymiar sprawy, są zarzuty dotyczące cenzury w modelach DeepSeek. Eksperci zajmujący się analizą zachowania chińskich systemów AI zwracają uwagę, że chatbot R1 ogranicza lub filtruje treści związane z tematami uznawanymi za kontrowersyjne przez władze w Pekinie, takimi jak status Tajwanu czy wydarzenia na placu Tiananmen. OpenAI ostrzega, że jeśli możliwości amerykańskich modeli są kopiowane za pomocą destylacji, zabezpieczenia i standardy odpowiedzialnego użycia mogą „zniknąć w tłumaczeniu”, tworząc ryzyko wykorzystania podobnych systemów w obszarach wysokiego ryzyka, takich jak biologia syntetyczna czy broń chemiczna.

W wypowiedziach przedstawicieli administracji USA, w tym doradców ds. AI przy Białym Domu cytowanych przez media takich jak bloomberg.com, pojawia się narracja o konieczności ochrony amerykańskiej przewagi technologicznej przed nieuprawnionym kopiowaniem i o „istotnych dowodach” na korzystanie przez DeepSeek z możliwości modeli OpenAI. To z kolei może stać się argumentem za zaostrzeniem regulacji, nowymi wymogami w zakresie ochrony API czy dodatkowymi ograniczeniami w korzystaniu z chińskich aplikacji AI przez instytucje publiczne oraz firmy z sektorów wrażliwych.

W praktyce spór ten może zostać wykorzystany przez polityków jako uzasadnienie dla: zwiększenia wsparcia publicznego dla krajowych dostawców AI, zaostrzenia kontroli eksportu zaawansowanych modeli, a także wprowadzenia rekomendacji lub nawet zakazów używania określonych chińskich usług AI w sektorach takich jak obrona, infrastruktura krytyczna czy finanse.

Możliwe scenariusze prawne i biznesowe: od cichego porozumienia po globalną wojnę cenową

Przyszły rozwój wydarzeń w sporze OpenAI–DeepSeek jest niepewny, ale można wskazać kilka realistycznych scenariuszy, które mają istotne konsekwencje zarówno dla branży AI, jak i dla użytkowników biznesowych. Należy traktować je jako analityczne prognozy, a nie opis faktów.

Pierwszym scenariuszem jest „ciche porozumienie”. Strony mogłyby zdecydować się na ugodę obejmującą licencję na określone technologie, jednorazowe lub okresowe odszkodowanie oraz ewentualne ograniczenia w dalszym wykorzystaniu obecnej wersji R1. Dla dostawców modeli oznaczałoby to sygnał, że destylacja z komercyjnych API może zostać „uregulowana” finansowo, a niekoniecznie zakończyć się zakazem. Integratorzy – software house’y i firmy konsultingowe – musiałyby jednak bacznie śledzić warunki licencyjne, aby nie wpaść w pułapkę nieważnych lub kontrowersyjnych praw do używanych modeli. Duże korporacje otrzymałyby względną stabilność, choć zapewne za cenę wyższych kosztów licencji, natomiast mniejsze przedsiębiorstwa mogłyby korzystać z tańszych rozwiązań DeepSeek, ale z większą niepewnością co do długoterminowego wsparcia.

Drugi scenariusz zakłada otwarty spór sądowy. OpenAI mogłoby zdecydować się na pozew przeciwko DeepSeek w USA lub innych sprzyjających jurysdykcjach. Taki proces stałby się głośnym precedensem w zakresie destylacji z cudzych modeli komercyjnych. Dla dostawców oznaczałoby to wymóg znacznie większej dokumentacji własnych praktyk treningowych oraz gotowość na audyty i spory prawne. Integratorzy i klienci korporacyjni musieliby uwzględniać w swoich planach ryzyko, że kluczowy model zostanie objęty nakazem sądowym i nagle wyłączony lub istotnie ograniczony. Mniejsze firmy, w tym startupy, mogłyby z kolei zostać odstraszone od agresywnych praktyk destylacji z obawy przed kosztownymi procesami.

Trzeci scenariusz to eskalacja regulacyjna. Pod wpływem sprawy OpenAI–DeepSeek amerykańskie organy nadzorcze mogłyby wprowadzić nowe wymogi dotyczące ochrony API, monitoringu ruchu i raportowania podejrzanych wzorców użycia, a także dalszych kontroli eksportu zaawansowanych modeli. Dostawcy byliby zmuszeni do inwestowania w rozbudowane systemy wykrywania nadużyć i identyfikowania dużych klastrów zapytań związanych z potencjalną destylacją. Integratorzy musieliby liczyć się z bardziej restrykcyjnymi limitami i dodatkowymi procedurami weryfikacyjnymi. Dla dużych klientów korporacyjnych oznaczałoby to wzrost znaczenia compliance i audytów łańcucha dostaw AI, natomiast mniejsze przedsiębiorstwa mogłyby odczuć wzrost barier wejścia w zaawansowane zastosowania AI.

Czwarty scenariusz ma charakter czysto rynkowy. Nawet bez formalnych sankcji presja cenowa ze strony tańszych modeli, takich jak R1, może wymusić na zachodnich graczach radykalne obniżenie marż i zmianę modeli biznesowych. Dostawcy mogliby w większym stopniu postawić na hybrydowe strategie: częściowo otwarte modele bazowe, płatne warstwy bezpieczeństwa, specjalistyczne wersje branżowe oraz usługi doradcze. Integratorzy zyskaliby szerszy wachlarz dostępnych narzędzi, ale musieliby umieć poruszać się pomiędzy modelami o różnym statusie prawnym i poziomie ryzyka. Dla dużych korporacji byłaby to szansa na optymalizację kosztów, o ile ich działy prawne i compliance byłyby w stanie właściwie ocenić ryzyka. Mniejsze firmy mogłyby korzystać z coraz tańszych i bardziej wydajnych modeli, ale za cenę konieczności ścisłego śledzenia, czy wybrane rozwiązania nie są obarczone potencjalnymi sporami prawnymi.

Co ten konflikt oznacza dla przedsiębiorców i prawników technologicznych korzystających z modeli językowych

Dla przedsiębiorców, in-house’owych prawników i kancelarii wyspecjalizowanych w nowych technologiach spór OpenAI–DeepSeek jest przede wszystkim sygnałem ostrzegawczym. Pokazuje, że kwestie związane z własnością intelektualną, regulaminami usług i geopolityką przestają być abstrakcyjnym tłem, a stają się realnym czynnikiem ryzyka biznesowego przy wdrażaniu rozwiązań AI.

Po pierwsze, rośnie znaczenie analizy ryzyka vendor lock-in i ryzyka regulacyjnego związanego z wyborem dostawcy modeli. Jeżeli kluczowy model zostanie objęty sporem prawnym lub sankcjami, dostawca może zostać zmuszony do ograniczenia jego dostępności lub funkcjonalności. Firmy powinny więc ocenić, na ile zależne są od jednego dostawcy i czy posiadają plan awaryjny – np. możliwość szybkiego przełączenia się na alternatywny model lub wariant open-source.

Po drugie, regulaminy usług AI (Terms of Service, Data Processing Agreements, ograniczenia dotyczące re-treningu na outputach) stają się kluczowym polem negocjacji. Przedsiębiorstwa nie mogą już traktować ich jako standardowych załączników. Konieczna jest szczegółowa analiza tego, czy i w jakim zakresie można wykorzystywać wyniki generowane przez komercyjne API do celów treningowych, R&D lub budowy własnych modeli wewnętrznych. W wielu przypadkach uzasadnione będzie wynegocjowanie osobnych klauzul lub licencji obejmujących takie zastosowania.

Po trzecie, firmy powinny wdrożyć wewnętrzne polityki korzystania z modeli językowych. Powinny one jasno określać, czy zespoły badawczo-rozwojowe mogą używać outputów z komercyjnych systemów do trenowania własnych rozwiązań, w jaki sposób mają dokumentować źródła danych, a także jakie procedury obowiązują przy eksperymentach z destylacją. Brak takich zasad może prowadzić do nieświadomego naruszenia regulaminów dostawców lub wręcz prawa.

Po czwarte, rośnie znaczenie due diligence w odniesieniu do dostawców AI z Chin i innych jurysdykcji o podwyższonym ryzyku politycznym lub regulacyjnym. Firmy powinny weryfikować nie tylko kwestie ochrony danych osobowych i cyberbezpieczeństwa, ale również to, czy dany dostawca nie jest przedmiotem sporów dotyczących własności intelektualnej lub potencjalnych sankcji. W sektorach wrażliwych – takich jak finanse, zdrowie, infrastruktura – wybór dostawcy AI zaczyna przypominać decyzje dotyczące dostawców sprzętu sieciowego czy chmury obliczeniowej.

W praktyce odpowiedź na te wyzwania może obejmować kilka kroków:

  • przeprowadzenie audytu aktualnych umów z dostawcami AI, ze szczególnym uwzględnieniem zapisów o wykorzystaniu outputów, destylacji i re-treningu;
  • rewizję procedur R&D, tak aby eksperymenty z destylacją czy fine-tuningiem były prowadzone w sposób zgodny z prawem i regulaminami;
  • włączanie prawników technologicznych i specjalistów ds. compliance w proces wyboru i integracji modeli, zamiast angażowania ich dopiero na końcowym etapie negocjacji;
  • stałe monitorowanie komunikatów regulatorów oraz dużych dostawców – takich jak OpenAI, Google czy Anthropic – dotyczących zmian w regulaminach i praktykach bezpieczeństwa.

Jak mogą zmienić się zasady gry dla użytkowników modeli językowych w najbliższych latach

Konflikt między OpenAI a DeepSeek jest prawdopodobnie zapowiedzią wielu podobnych sporów, które będą kształtować doświadczenie użytkowników modeli językowych w nadchodzących latach. Choć większość obecnych dyskusji toczy się na poziomie firm i rządów, skutki odczują zarówno indywidualni użytkownicy, jak i przedsiębiorstwa.

Można spodziewać się przede wszystkim zaostrzenia ograniczeń w regulaminach komercyjnych modeli. Zakazy masowego pobierania wyników, automatycznego scrapingu czy re-treningu na outputach bez zgody dostawcy staną się jeszcze bardziej jednoznaczne, a ich egzekwowanie – bardziej rygorystyczne. To może utrudnić budowanie własnych modeli na bazie popularnych usług SaaS, ale jednocześnie zwiększy przewidywalność warunków korzystania dla uczciwych użytkowników.

Kolejną zmianą będzie wyraźniejsze rozróżnienie między modelami „zamkniętymi” (komercyjne API, ściśle kontrolowane licencje) a „otwartymi” (modele open-source lub quasi-open-source, które można hostować i modyfikować samodzielnie). Firmy będą musiały strategicznie decydować, czy w kluczowych procesach biznesowych polegać na modelach zamkniętych – oferujących zazwyczaj wyższy poziom jakości i bezpieczeństwa, ale mniej elastycznych prawnie – czy na modelach otwartych, które dają większą kontrolę i wolność w zakresie trenowania, ale wymagają większych kompetencji technicznych i odpowiedzialności.

Rosnąć będzie także presja na przejrzystość łańcucha wartości w AI. Klienci korporacyjni zaczną częściej pytać dostawców, na jakich danych trenowano model, czy nie opiera się on na outputach pozyskanych w sposób ryzykowny prawnie oraz czy dostawca jest w stanie udokumentować zgodność z obowiązującymi regulacjami. Brak satysfakcjonujących odpowiedzi może prowadzić do rezygnacji z danego rozwiązania, zwłaszcza w sektorach regulowanych.

Wreszcie, można oczekiwać wzrostu znaczenia rozwiązań lokalnych i branżowych. Modele trenowane na ściśle kontrolowanych, domenowych zbiorach danych – często w ramach infrastruktury on-premise lub chmury zaufanego dostawcy – pozwalają firmom lepiej zarządzać ryzykiem IP, ochroną danych i zgodnością z regulacjami. Choć mogą one ustępować największym modelom ogólnego przeznaczenia pod względem wszechstronności, oferują większą przewidywalność prawną i operacyjną.

Spór OpenAI–DeepSeek pokazuje, że techniczna innowacja w postaci destylacji modeli zderza się dziś z ramami prawnymi i geopolitycznymi, które nie nadążają za tempem rozwoju technologii. Dla przedsiębiorstw i prawników technologicznych to sygnał, że era „eksperymentowania bez konsekwencji” w AI dobiega końca. Firmy, które już teraz zainwestują w świadome podejście do własności intelektualnej, compliance oraz transparentne strategie korzystania z modeli językowych, będą lepiej przygotowane na kolejne lata dynamicznego rozwoju tej technologii – oraz na następne spory, które z dużym prawdopodobieństwem pojawią się na styku innowacji, prawa i polityki.


Leave a Reply

Your email address will not be published. Required fields are marked *