Partnerem debaty jest Federacja Przedsiębiorców Polskich

Kwestie związane z bezpieczeństwem w cyfrowym świecie coraz częściej pojawiają się w debacie publicznej i to przy coraz liczniejszych okazjach.

Do rozmowy pod hasłem „Zjawisko dezinformacji oraz bezpieczeństwo użytkowników w dobie rewolucji cyfrowej” „Rzeczpospolita” zaprosiła ekspertów z kluczowych obszarów: Małgorzatę Fraser, dziennikarkę portalu CyberDefence24.pl, Arkadiusza Pączkę, wiceprzewodniczącego Federacji Przedsiębiorców Polskich, Roberta Króla, dyrektora Centrum Nowych Technologii dla Polityk Publicznych w NASK (Naukowej i Akademickiej Sieci Komputerowej) oraz Jakuba Olka, dyrektora regionalnego TikToka ds. relacji publicznych na Europę Środkową i Wschodnią.

Gościem specjalnym wydarzenia był Janusz Cieszyński, sekretarz stanu, pełnomocnik rządu do spraw cyberbezpieczeństwa.

Dezinformacja – zagrożenie dla przedsiębiorców

Jak wojna w Ukrainie wpłynęła na cyberbezpieczeństwo? W jaki sposób pandemia Covid-19 zmieniła nasze postrzeganie dezinformacji? Zdaniem wiceprzewodniczącego Federacji Polskich Przedsiębiorców Arkadiusza Pączki „pandemia pokazała nową perspektywę działania firm w kontekście bezpieczeństwa i dezinformacji”. – Ochrona danych i przekazywanie informacji mają kolosalne znaczenie w kontekście bezpieczeństwa cyfrowego. Drugim (po pandemii – przyp. red.) elementem jest wojna w Ukrainie, która ma silne przełożenie na rynki finansowe i surowcowe – na cały obszar związany z makroekonomią. Widzimy, jak łatwo jest wykreować informacje mające ogromne znaczenie dla wskaźników makroekonomicznych, które przekładają się na płynność finansową firm – stwierdził wiceprzewodniczący FPP.

Arkadiusz Pączka przekonywał też, że dezinformacja uderza również w małe i średnie przedsiębiorstwa. – Mniejsze firmy nie są uwrażliwione na aspekty związane z cyberbezpieczeństwem i dezinformacją. Na tę ostatnią zwłaszcza prywatny kapitał patrzy tak, jakby go ona nie dotyczyła. Jeżeli cyberbezpieczeństwo skupia się na wąskich i wrażliwych sektorach gospodarki, to ewidentnie dotyczy małych i średnich firm, które nierzadko są jedynym dostawcą komponentów dla globalnego łańcucha dostaw – podkreślił wiceprzewodniczący FPP.

Redaktor Zuzanna Dąbrowska, prowadząca debatę, pytała, czy i w jakim stopniu pandemia wymusiła przyśpieszoną cyfryzację przedsiębiorstw, choćby poprzez nowy tryb pracy wynikający z lockdownów.

Tę tezę potwierdził Arkadiusz Pączka i wskazał, jakie wyzwania rodzi to dla biznesu: – W badaniach widzimy, że co trzecią firmę dotyka kwestia bezpieczeństwa cyfrowego i dezinformacji. To pokazuje nam skalę zjawiska. Polscy przedsiębiorcy widzą w nim wyzwanie. Dostrzegają, że przekłada się to na wyniki finansowe firm i że to jest obszar, który wymaga bardzo szybkich inwestycji i który stanowi o „być albo nie być” podmiotu na danym rynku. Próba „odkręcenia” efektów dezinformacji jest bardzo trudna. Pandemia, wojna w Ukrainie, coraz szybszy rozwój sfery cyfrowej i różnego rodzaju platform spowodowały, że dyskutujemy dziś o tym jako o jednym z kluczowych zagrożeń dla sektora małych i średnich przedsiębiorstw – zaznaczył wiceprzewodniczący FPP.

Robert Król, dyrektor NASK (Naukowa i Akademicka Sieć Komputerowa), scharakteryzował zjawisko dezinformacji i podał jej przykłady: – Z dezinformacją mamy do czynienia w sferze miękkiej – przekazu i wpływu na nasze umysły. Zaczęliśmy się zajmować tym tematem od zeszłego roku, gdy zlecił nam to minister cyfryzacji. Do czynienia z dezinformacją mieliśmy np. przy okazji wprowadzania sieci 5G, która powodowała niepokój wśród obywateli i opór części społeczeństwa przed wdrażaniem tych technologii. Ale trzeba pamiętać, że z dezinformacją można się było spotkać już przed powstaniem internetu. Dopiero pandemia spowodowała, że pojawiła się ona w powszechnym dyskursie. Wtedy zaczęliśmy rozmawiać o tym zjawisku i dostrzegać, że jest ono bardzo niebezpieczne – mówił Robert Król.

Autopromocja
Subskrybuj nielimitowany dostęp do wiedzy

Unikalna oferta

Tylko 5,90 zł/miesiąc


WYBIERAM

Dyrektor NASK wskazał też na ewolucję i przystosowywanie się trolli internetowych w związku z działaniami zwalczającymi dezinformację. – Teraz mamy do czynienia z dezinformacją, która jest niuansem, która jest plotką, tak jak np. informacja o Kasi z Ząbek, która miała się nie dostać do szpitala, jakoby zajętego przez obywateli Ukrainy. Informacja ta była sformułowana jako pytanie podszyte wątpliwością. Co możemy zrobić, kiedy spotykamy się z takim fake newsem jako internauci? Przecież nie będziemy dzwonić do tego szpitala, by sprawdzić, czy taka sytuacja miała miejsce. Wszyscy producenci dezinformacji zaczęli niuansować dezinformację, co powoduje, że portalom ciężko jest wyłapywać te treści w ramach swoich polityk i tego, jak funkcjonują na co dzień – podkreślił ekspert.

Robert Król podkreślał także rolę dziennikarzy w walce z dezinformacją. – Wydaje mi się, że ogromna odpowiedzialność spada na dziennikarzy – chodzi przede wszystkim o to, by zanim opublikują jakąś informację, sprawdzili ją i upewnili się, czy jest ona prawdziwa. To media mają narzędzia, żeby np. zadzwonić do takiego szpitala i dowiedzieć się, czy opisana sytuacja miała miejsce. Drugim rozwiązaniem jest to, żeby platformy publikujące informacje reagowały na to, że podana historia jest nieprawdziwa. Takie strony internetowe mogłyby oznaczać w jakiś sposób, że informacja jest nieprawdziwa, albo zdejmować ją ze swojego portalu – proponował.

TikTok: wolność bez obrażania

A jak z cyberbezpieczeństwem radzi sobie najszybciej rosnąca i jedna z najbardziej popularnych platform „kontentowych”? Jakub Olek, dyrektor regionalny TikToka ds. relacji publicznych na Europę Środkową i Wschodnią, przekonywał, że bezpieczeństwo i ochrona danych użytkowników „jest kluczowa dla działania TikToka”. Jego zdaniem ciężko sobie wyobrazić, żeby platforma, której nadrzędnym celem jest dawanie swobody w wyrażaniu siebie, mogła funkcjonować bez poczucia bezpieczeństwa wśród użytkowników. – Dla nas ta wolność ekspresji na TikToku idzie równolegle w parze z polityką zerowej tolerancji dla treści naruszających nasze zasady społeczności, a więc także np. obraźliwych, powielających półprawdy czy w ogóle nieprawdziwych. Systematycznie raportujemy naszą efektywność z egzekwowania tych zasad. Dla przykładu: w czwartym kwartale 2021 r. usunęliśmy 85 mln filmów, co stanowi mniej niż 1 proc. wszystkich przesłanych w tym okresie na platformę. Aż 90 proc. zostało usuniętych, zanim uzyskały jakiekolwiek wyświetlenia. Usunęliśmy także 6 mln fałszywych lub spamerskich kont użytkowników.

W dalszym ciągu rozwijamy i dostosowujemy nasze zabezpieczenia, inwestując w zautomatyzowane mechanizmy służące do wykrywania, blokowania oraz usuwania fałszywych kont i aktywności, a także poprawiając naszą szybkość i reakcję na zmieniające się zagrożenia. Opracowaliśmy dodatkowe systemy monitorowania oraz usprawniliśmy dotychczasowe systemy i procesy obsługi zgłoszeń. Zwiększyło to naszą zdolność do wykrywania fałszywych kont użytkowników na etapie ich rejestracji i usuwania fałszywych obserwujących oraz fałszywych polubień, a także filmów powiązanych z tymi kontami – poinformował przedstawiciel platformy.

Jakub Olek przedstawił także procedurę blokowania filmów i kont na TikToku. – Proces moderacji odbywa się na wielu poziomach. Najpierw jest poziom technologii, a później jest to poziom ludzki. Korzystamy także ze wsparcia i zaangażowania naszych użytkowników, ekspertów i instytucji partnerskich. Jedno z rozwiązań, które stosujemy, to kanał partnerski, do którego zaprosiliśmy wiele podmiotów – w tym NASK – które pomagają nam monitorować i flagować nieakceptowalne treści. Prowadzimy szereg działań edukacyjnych, które są skierowane do naszej grupy odbiorców: poprzez dedykowane komunikaty przy wynikach wyszukiwania, hashtagach, ostrzeżenia wyświetlane przy niektórych treściach i specjalne zakładki informacyjne i edukacyjne, które promujemy wewnątrz serwisu, przez kampanie celowe poświęcone bezpieczeństwu w sieci czy uwrażliwianiu na konkretne aspekty z tym związane: mowę nienawiści, dezinformację czy rozpowszechnianie treści wprowadzających w błąd.

Wydaje się, że te wysiłki przynoszą efekty: użytkownicy jasno deklarują, że czas spędzony w aplikacji jest czasem spędzonym dobrze: czują się szczęśliwi, w radosnym nastroju (61 proc., gdy średnia dla innych platform to 38 proc.), 43 proc. deklaruje, że jest nastawionych na odkrywanie (ciekawi, zainspirowani i otwarci), a tylko niecałe 3 proc. nie ocenia TikToka jako przestrzeni do swobodnego komunikowania się i wyrażania siebie – mówił Olek.

Dezinformacja – jak się bronić?

Zdaniem Małgorzaty Fraser, dziennikarki portalu CyberDefence24.pl, przede wszystkim „należy wiedzieć, czym jest dezinformacja, żeby móc się przed nią bronić”. Fraser przekonywała, że to m.in. media i politycy są winni wzrostowi akcji dezinformacyjnych oraz temu, że społeczeństwo jest podatne na zalew nieprawdziwych informacji. – Jako media zaniedbaliśmy edukację na temat tego, czym jest dezinformacja. Niejednokrotnie sami ją uprawialiśmy w imię „klikalności” nagłówków i podnoszenia malejącej sprzedaży nakładów. Dezinformację stosuje się również jako narzędzie walki politycznej. Zjawisko to istnieje od zawsze, to nie jest coś, co magicznie pojawiło się w czasie epidemii czy podczas wojny w Ukrainie. Dezinformacja była narzędziem, które znane już było w starożytnych Chinach, bo jest metodą prowadzenia wojny i operacją realizowania wpływów politycznych – mówiła ekspertka. Jej zdaniem skala dezinformacji zaskoczyła nas wraz z nadejściem ery cyfrowej m.in. dlatego, że w szkole nie uczy się, jak odróżniać prawdziwe informacje od fałszywych oraz ocen i opinii od faktów. – Człowiek, który wchodzi w dorosłość, jest skazany na to, żeby tę wiedzę pozyskiwać samemu – stwierdziła redaktor CyberDefence24.pl.

Dziennikarka podkreśliła także, że „dezinformacja żywi się naszymi emocjami”, dlatego najlepsze, co można zrobić w walce z dezinformacją, to „ochłodzić emocje”. – Rzadko w mediach mamy do czynienia z czystym faktem. Nawet jedyna w kraju agencja informacyjna nie publikuje samych faktów, tylko fakty okraszone opiniami. To, co możemy zrobić, to powściągnąć emocje i zastanowić się cztery razy, czy przekaz, który aktualnie odbieramy, nie jest zbudowany w taki sposób, żeby nas oburzyć i wzbudzić określone negatywne uczucia. W 2016 r. mieliśmy tego wyśmienity przykład podczas wyborów prezydenckich w Stanach Zjednoczonych. Tak samo było przed brexitem i wyborami w Polsce, gdzie mogliśmy się dowiedzieć – na podstawie raportów zagranicznych organizacji – że jedna z największych sieci społecznościowych w Polsce doprowadziła niemal do wybuchu wojny domowej. Komunikaty, które działają emocjonalnie na odbiorców, nie zamykają się w wirtualnym świecie, są realnie istniejącymi podziałami w społeczeństwie, co znajduje wyraz przy urnie wyborczej. Emocje są jednym z najważniejszych czynników, które można wykorzystać do dezinformacji na poziomie jednostkowym – zaznaczyła ekspertka.

Arkadiusz Pączka również podkreślił rolę emocji w działalności biznesowej. Jego zdaniem ten aspekt jest bardzo ważny, zwłaszcza w przypadku małych i średnich przedsiębiorstw. – Przedsiębiorca także jest użytkownikiem sieci, a informacje, które w niej znajdzie, mają bardzo duży wpływ na jego przyszłe decyzje biznesowe. Jestem zwolennikiem upowszechnienia szkoleń, które pokażą, że ochrona firm przed dezinformacją ma bardzo duże znaczenie. Jesteśmy ciągle na etapie, że kiedy ktoś rozpoczyna nową pracę, to szkolenia z BHP i PPOŻ są kluczowym elementem. A co ze szkoleniami z cyberbezpieczeństwa? Przecież to jedno z podstawowych dziś wyzwań dla biznesu – zaznaczył wiceprzewodniczący FPP.

Małgorzata Fraser mówiła także o tym, jak dane, które zostawiamy w sieci, mogą zostać użyte przeciwko nam. Przypomniała o aferze związanej z Cambridge Analytica. Dane 80 mln użytkowników największej sieci społecznościowej zostały wtedy użyte przez firmę analityczną do celów kampanii wyborczych. Jak to się robi? – Poprzez „mapowanie” elektoratów i grup pod kątem ich przekonań i potrzeb. Następnie docieramy ze ściśle ukierunkowanym przekazem, który pozwoli nam osiągnąć cel, czyli ich głosy. O tym, że przekaz będzie skuteczny, wiemy na podstawie badań socjologicznych i psychologicznych – mówiła ekspertka.

Czy wiedza o tych mechanizmach dociera do użytkowników internetu? Arkadiusz Pączka wskazał na zwiększającą się świadomość wśród firm w zakresie cyberbezpieczeństwa. – Przedsiębiorcy mają świadomość, że jest to ważny element prowadzenia działalności gospodarczej. Firmy mogą również korzystać z algorytmów, ale w kontekście biznesowym. Konkurencja patrzy przecież na to, jak firmy funkcjonują w sieci i dzięki dezinformacji mogą powodować pogorszenie wizerunku danej firmy, a tym samym straty finansowe. Kapitał ludzki w platformach cyfrowych ma także kolosalne znaczenie. Zwłaszcza w odpowiedzi na pytanie, jakie wyzwania stoją przed platformami opartymi o treści pochodzące od użytkowników. Dlatego jestem zwolennikiem ścisłej współpracy między nimi a instytucjami państwa – deklarował wiceprzewodniczący FPP.

„Banowanie”, czyli odcinanie głowy trolla

Czy oprócz szkoleń i edukowania społeczeństwa można zrobić coś jeszcze? Czy należy wyrzucać z sieci niechcianych użytkowników? Dyrektor Robert Król mówił o nieskuteczności blokowania kont trolli. – Nawet gdy odetniemy tę głowę, blokując dane konto, to ta głowa odrośnie. Być może będzie ona trochę słabsza, ale w końcu się odbuduje i znów stanie się problemem. Usuwanie jest rozwiązaniem doraźnym, które powinno być stosowane tam, gdzie mamy do czynienia z bardzo uporczywą dezinformacją, która jest profesjonalnie prowadzona. Co więc jest rozwiązaniem? Należy zrobić dwa kroki wstecz i poczekać na kogoś, kto ma narzędzia do zweryfikowania takiej informacji. Trzeba także oczywiście edukować, już na poziomie szkoły. Powinniśmy mieć odruch, żeby sprawdzać informacje, tak samo jak nauczyliśmy się patrzeć na skład produktów żywnościowych w sklepie. Tylko to da nam długoterminową odporność. A krótkoterminową zapewni nam reagowanie przez portale i zgłoszenia do adminów – przekonywał ekspert.

Jakub Olek opisał, jak TikTok radzi sobie z ochroną danych użytkowników. Zadeklarował, że ich bezpieczeństwo jest dla platformy tak samo ważne, jak bezpieczeństwo jej użytkowników. Podkreślił, że TikTok rozpoczął budowę swoich struktur od zespołu ds. bezpieczeństwa i od razu dostosował swoje regulacje do tych europejskich, nie tylko aktualnie obowiązujących, ale także antycypując możliwe kierunki zmian. – Realizujemy europejską strategię zarządzania danymi. Wspierając uznane w Europie metody bezpiecznego przechowywania danych, TikTok posiada wszystkie standardowe klauzule umowne wykorzystywane w regionie. Stosujemy szereg uzupełniających się rozwiązań technicznych, umownych i organizacyjnych. Oznacza to, że w praktyce wszystkie dane są solidnie zabezpieczone za pomocą różnorodnych zasad i systemów kontroli dostępu do danych (fizycznych i logicznych), w tym dla pracowników TikToka – wyjaśnił. – Stosujemy zasadę minimalizacji przepływu danych tak poza region, jak i wewnątrz organizacji. Ściśle ograniczamy liczbę pracowników, którzy mają do nich jakikolwiek dostęp. Do tej pory TikTok przechowywał dane swoich użytkowników z całego świata w Singapurze i USA, ale już z początkiem 2023 rozpocznie swoją działalność nowe centrum danych, które umiejscowione będzie w Dublinie. Gromadzone będą w nim dane użytkowników z Wielkiej Brytanii i Europejskiego Obszaru Gospodarczego (EOG), który obejmuje całą Unię Europejską – w tym Polskę. Chętnie też odpowiadamy na zapotrzebowania instytucji w zakresie bezpieczeństwa danych, w wybranych przypadkach udostępniając nawet kod źródłowy aplikacji. Wydaje mi się, że jesteśmy na najwyższym światowym poziomie, jeżeli chodzi o bezpieczeństwo danych naszych użytkowników – mówił dyrektor TikToka.

Jakub Olek podkreślił, że pracownicy przyjmowani do pracy przechodzą „odpowiedni zestaw szkoleń”. – W TikToku jestem od roku, a takich szkoleń miałem już pięć. I nawet nie spotkałem jeszcze osoby, która pracowałaby z danymi użytkowników i sam też z nimi nie pracowałem, czyli zasada o minimalizacji dobrze funkcjonuje – zapewnił przedstawiciel TikToka.

Cyfryzacja mediów

Małgorzata Fraser opisała postępujący proces cyfryzacji mediów, który wpływa na jakość publikacji. – Wcześniej mieliśmy jako dziennikarze bardzo duży problem z tym, że jest internet. Uważaliśmy, że „papier” nigdy nie umrze, a treści, które idą do internetu, mają prawo być „trochę gorsze”. Obecnie wszystkie gazety papierowe są dla mnie synonimem rzetelności, ponieważ wydania papierowe wymagają pochylenia się chociażby nad korektą, a w internecie często nie jest to tak ważne. Jako konsumentka mediów papierowych – w zasadzie tylko zagranicznych – cieszę się z tego, że papier wciąż się tą jakością odróżnia. Ale to internet jest już dominującym kanałem informacyjnym – podkreśliła publicystka.

W opinii dziennikarki należy więc działać tak, żeby jak najlepiej funkcjonować w warunkach, jakie mamy, i przekazywać swoim odbiorcom jak najlepsze materiały. – „Clickbait” jest domeną internetu, chociaż już wcześniej były tabloidy, które przecież „krzyczały” do nas sensacyjnymi nagłówkami, żebyśmy je kupili. Trzeba zastanowić się nad tym, jak przeszkolić redaktorów pracujących w działach internetowych, żeby połączyć chęć osiągania zysku z rzetelnością. Wierzę, że da się to zrobić, tylko trzeba wyjść poza pewne utarte schematy i nie obrażać się na rzeczywistość. Problemem jest to, że często za przygotowanie treści internetowych zabierają się ludzie, którzy nie mają o tym pojęcia. Sami robimy sobie krzywdę, nie ucząc się nowych mediów i obrażając się na nie – podkreśliła ekspertka.

Zdaniem Arkadiusza Pączki internet jest „szansą biznesową dla firm” i dlatego „firmy również nie mogą się na niego obrażać”. – Jest to możliwość nie tylko dla wielkich korporacji do promowania swoich brandów, ale także dla mikro- i średnich przedsiębiorstw. Ostatnio byłem na konferencji TikToka, gdzie zauważyłem, że osoby z Ukrainy świetnie realizują swoje własne małe projekty biznesowe, korzystając z takich platform. Musimy także podnosić kompetencje cyfrowe własnych pracowników. Kwestia, która także ma kolosalne znaczenie, to wolność słowa i wypowiedzi w kontekście platform cyfrowych. Jest to dyskusja, która co jakiś czas wybucha przy różnych okazjach – zaznaczył wiceprzewodniczący FPP.

Robert Król przedstawił z kolei, jakimi cechami powinien odznaczać się świadomy internauta. – Taki internauta powinien wiedzieć, że istnieją takie zjawiska jak phishing, i powinien rozumieć zagadnienia związane z cyberbezpieczeństwem, ale wiedzieć również, jak postępować z dezinformacją. Świadomy internauta powinien weryfikować informacje, zanim je udostępni, i wyrobić sobie zdanie o źródłach informacji, z których korzysta. Jeśli chodzi o portale i technologie, to potrzebna jest współpraca, którą dopiero budujemy – stwierdził dyrektor NASK.

Jakub Olek przedstawił dalsze kroki TikToka w stronę zapewniania bezpieczeństwa użytkownikom. Uważa on, że „ludzie nie będą mieć swobody do wyrażania siebie na TikToku, jeżeli nie będą mieć poczucia bezpieczeństwa”. – Dlatego dalej będziemy współpracować z naszymi partnerami i prowadzić działania edukacyjne. To jest również kwestia nieustannej chęci bycia lepszym w tym, co robimy. Poza nowym data center także w Irlandii zlokalizowany został europejski zespół prawny ds. ochrony prywatności oraz Biuro Inspektora Ochrony Danych, a także centra Trust & Safety EMEA, European SMB Hubs oraz Europejski Ośrodek Otwartości i Odpowiedzialności. W 2021 r. ogłosiliśmy także otwarcie ośrodka badawczo-rozwojowego, którego zadaniem jest monitorowanie, wykrywanie i reagowanie na potencjalne zagrożenia, a także gromadzenie danych dotyczących przestępczości cyfrowej. Centrum Komunikacji Strategicznej NATO wydało raport, w którym podano, jaki postęp zrobił TikTok w walce z dezinformacją. Z ostatniego miejsca wskoczyliśmy na drugie w ciągu roku – zdradził przedstawiciel TikToka.

Moderacja i wolna wola

Małgorzata Fraser wskazała na etyczny problem moderacji treści w internecie. Według niej usuwanie kont i wypowiedzi „zawsze jest formą cenzury”. – Jeżeli chcemy konsumować przekaz, który jest nieprawdziwy, to jest nasza wolna wola. Jeżeli chcemy wierzyć w bzdury i być zwolennikami teorii spiskowych, to ostatecznie mamy do tego prawo. Moderacja, która przybiera wymiar polityczny, to droga donikąd. Dlatego uważam, że dyskusje o inwestycjach w zespoły moderatorów po stornie platform społecznościowych nie mają sensu. Jeżeli mamy amerykańską platformę, to oczywistym jest, że nie będzie ona inwestowała w jakiś peryferyjny rynek, jakim jest dla niej Polska. Nie będzie też zatrudniać tutaj ludzi, którzy mają odwagę żądać dla siebie ekwiwalentnej pensji, odpowiadającej płacy w USA. Dlaczego Amerykanin ma dostawać pensję na poziomie 2 tys. dol. przy 700 dol. dla Polaka?

Skłaniałabym się więc do tego, co proponuje NASK, czyli działań edukacyjnych, które mogą rozwiązać ten problem na poziomie społecznym. To, że wymoderujemy 10 tys. wpisów i je usuniemy, to nie znaczy, że nie istnieje kolejne 50 tys., które nam umknie. Moderowanie wypowiedzi nie sprawi, że mowa nienawiści zniknie, tylko przeniesie się tam, gdzie nie będziemy jej widzieć – zaznaczyła specjalistka.

Opinia

Janusz Cieszyński, sekretarz stanu, pełnomocnik rządu ds. cyberbezpieczeństwa:

Współpraca instytucjonalna w zakresie cyberbezpieczeństwa opiera się na bieżącej wymianie myśli, zgłaszaniu postulatów, opinii i oczekiwań. Kooperacja wykuwa się przy takich kwestiach jak wsparcie Ukrainy, ale mamy też z nią do czynienia przede wszystkim przy projektach długofalowych. Ostatnio odbyło się np. bardzo dobre spotkanie z przedstawicielami samorządów dotyczące planowanych kierunków zmian w systemie CEPIK, które dotykają praktycznie każdego obywatela. Najlepsze współdziałanie budujemy wtedy, gdy mamy do siebie numery telefonów i adresy mailowe, i nie wahamy się z nich skorzystać.

Dobra jest też współpraca z przedsiębiorcami, bo w trudnych tematach zawsze powinniśmy uwzględniać perspektywę gospodarczą. Bez współpracy z biznesem, m.in. z operatorami wielkich platform internetowych, trudno wyobrazić sobie skuteczne postępowanie. Otrzymujemy coraz więcej danych od wielkich platform, co sprawia, że jesteśmy w stanie szybciej wyłapywać przypadki dezinformacji. Świetnym przykładem jest TikTok, który prowadzi bardzo dobrą komunikację, a także, wspólnie np. z NASKiem, przeprowadza wartościowe akcje edukacyjne. Z TikToka przenosi się na inne platformy najmniej dezinformujących treści. Chcemy, żeby wymiana informacji była jeszcze lepsza, dlatego cały czas prowadzimy dialog. Myślę, że po żadnej ze stron nie ma wątpliwości, co do sensowności takiego współdziałania. Odpowiednie wdrażanie usług internetowych, które od początku uwzględni kwestię skutecznych zabezpieczeń – istotnie podniesie poziom bezpieczeństwa. Działanie w sieci daje nam możliwość lepszej ochrony użytkowników: w formie papierowej o wiele trudniej np. określić, kto miał dostęp do danej informacji. Mądra i dobra cyfryzacja to jest klucz do tego, by podnieść poziom bezpieczeństwa dla całego społeczeństwa, a w szczególności chronić najważniejsze informacje, które przechowuje państwo.

Partnerem debaty jest Federacja Przedsiębiorców Polskich