AAA

Nowe technologie w obliczu wyzwań sztucznej inteligencji (AI)1

Anna Marszałek

Abstrakt

Artykuł ma charakter poglądowy i jest próbą wejścia w dialog w budzącej wiele emocji sprawie dynamicznego rozwoju sztucznej inteligencji. Może być ona instrumentem pomocnym w życiu człowieka, ale wykorzystana w nieodpowiedni sposób i dodatkowo niepodlegająca kontroli staje się narzędziem bardzo niebezpiecznym. Celem artykułu jest przedstawienie zagadnienia sztucznej inteligencji w kontekście wdrożenia całego procesu oceny jej uwarunkowań technologicznych. Szczególny nacisk Autorka kładzie na konieczne do wypracowania regulacje natury prawnej i etycznej. Dla zilustrowania przedstawionych w tekście rozważań posłużono się przykładem innowacji przełomowej, jaką jest chatbot ChatGPT.

Słowa kluczowe: sztuczna inteligencja, technologia, innowacje przełomowe, proces oceny technologii, ChatGPT

Wprowadzenie

W ostatnich latach zachodzą dynamiczne zmiany polegające na wykształcaniu się ekonomicznych, regulacyjnych oraz organizacyjnych uwarunkowań związanych z efektywnym wykorzystaniem wdrażanych technologii. Mimo że stale dokonujący się postęp uzależniony jest od szeregu warunków, a w sam proces jest zaangażowanych wielu uczestników, to i tak można znaleźć zarówno grono zwolenników, jak również przeciwników unowocześnień. Niejednokrotnie są te społeczności równoliczne, szczególnie gdy przedmiot analiz budzi polemiki.

Dlatego nie ulega wątpliwości, że rozprzestrzenianie się nowych rozwiązań technologicznych powinno być w pewien sposób kontrolowane, szczególnie w aspekcie spełniania przez nie kryteriów bezpieczeństwa. Wyraźnie o tym świadczy sporo emocji (tych o wydźwięku pozytywnym, jak i negatywnym), jakie w ostatnim czasie wywołuje hasło: sztuczna inteligencja (artificial intelligence, zwana również AI). Czym jest sztuczna inteligencja, która nam towarzyszy już niemal na każdym kroku? Czy jej tak dynamiczny rozwój może nam zagrozić? Czy nie dają do myślenia słowa, które wypowiedział Geoffrey Hinton - ojciec chrzestny AI: "Niewielu ludzi wierzyło, że AI może kiedyś się stać mądrzejsza od ludzi. Ja sam byłem do niedawna przekonany, że to się może wydarzyć dopiero za 30 do 50 lat. Już tak nie myślę" (Wójcik, 2023).

W niniejszym artykule Autorka skupia się na analizie sztucznej inteligencji w kontekście występowania innowacji przełomowych, podając jako przykład chatbot ChatGPT. Ich cechą charakterystyczną jest m.in. to, że zmieniają bieg dotychczasowego rozwoju, wymuszają zastosowanie nowych rozwiązań. Dlatego tak ważne jest równoczesne przeprowadzanie procesu oceny technologii (technology assessment, zwane dalej: TA), który ma na celu m.in. zminimalizowanie niepewności związanej z rozwojem technologii dokonującym się obecnie oraz w przyszłości. Tym zagadnieniom poświęcona jest kolejna część artykułu.

Pojęcie sztucznej inteligencji i jej składowe

Sztuczna inteligencja jest określana jako "systemy, które wykazują inteligentne zachowanie dzięki analizie otoczenia i podejmowaniu działań - do pewnego stopnia autonomicznie - w celu osiągnięcia konkretnych celów" (Komisja Europejska, 2018, s. 1). Z tej definicji można wywnioskować, że AI jest w stanie, bazując na wcześniej dokonanych analizach, dostosować do pewnego stopnia swoje zachowanie. Co może budzić pewne kontrowersje, szczególnie w połączeniu z faktem, że AI cechuje się wysokim stopniem kompleksowości, nieprzewidywalności oraz autonomii. A scalenie tych trzech cech w nieznanym otoczeniu (gdyż tak naprawdę AI nie jest do końca poznana) może rodzić poważne konsekwencje2.

Pod pojęciem sztucznej inteligencji możemy wyróżnić różne grupy technik/technologii (Boucher, 2020). Pierwsza odnosi się do systemów eksperckich. Tutaj eksperci tworzą precyzyjne procedury oparte na przyjętych regułach - zwane algorytmami - które są następnie, krok po kroku, naśladowane przez komputery w celu wyszukania rozwiązania najbardziej dopasowanego do potrzeb. Ten rodzaj AI (nazywany również "wąską sztuczną inteligencją" - narrow AI) najlepiej sprawdza się w środowisku, które na przestrzeni czasu nie podlega zmianom, gdzie reguły zachowań są ściśle przestrzegane, a same zmienne pozostają jednoznaczne i mierzalne. Wykorzystuje się ją np. do tworzenia asystentów głosowych czy przeglądarek internetowych (Konieczna, 2019, s. 105).

Druga z kolei odnosi się do sieci neuronowych wzorujących się na mechanizmach funkcjonowania mózgu. Rozwinęła się ona w ciągu ostatnich kilkunastu lat. Znamienną dla niej jest zdolność uczenia się na podstawie dostępnych przykładów. Mówimy tutaj o procesach głębokiego uczenia się3 (deep learning) zachodzącego na kilku płaszczyznach, jak i uczenia się maszynowego4 (machine learning), gdzie dane otrzymane na wyjściu (outputs) są inteligentnie wykorzystywane do wprowadzenia nowych informacji na wejściu (inputs). Dzięki takiej sekwencyjności możliwe jest ciągłe doskonalenie sieci neuronowych.

Trzecie podejście sprowadza się do możliwych scenariuszy rozwoju sztucznej inteligencji, czyli silnej sztucznej inteligencji (artificial general intelligence AGI), działającej tak jak ludzki umysł, albo nawet przewyższającej jego możliwości. Aktualnie rozwijające się technologie nie są jeszcze w stanie zapewnić jej funkcjonowania i wymagane jest dokonanie zmian wszelkich paradygmatów.

Jak prognozował Klaus Schwab, pomysłodawca światowego Forum Gospodarczego w Davos, AI będzie siłą napędową czwartej rewolucji przemysłowej (Schwab, 2016) stając się jedną z ważniejszych technologii przyszłości, a w konsekwencji multidyscyplinarnym obszarem badawczym. Ale na horyzoncie pojawiają się już echa piątej rewolucji przemysłowej, gdzie będziemy mieć do czynienia z występowaniem zjawiska wzajemnej synergii ludzi i robotów, tworzenia relacji opartych bardziej na współpracy niż na współzawodnictwie (Nahavandi, 2019). Przyjrzyjmy się więc bliżej sztucznej inteligencji, na temat fenomenu której trwa i pewnie długo jeszcze trwać będzie w środowisku naukowym (nierozstrzygnięta) dyskusja. Oto jej główne składowe (rysunek 1).

Rysunek 1
Główne składowe AI

Źródło: Legal aspects of Artificial Intelligence (v. 3.0), Ch. Kemp, Kemp IT Law, 2021, s. 5 (https://kempitlaw.com/wp-content/uploads/2021/02/KITL-Legal-Aspects-of-AI-v.-3.0.pdf)

Nie ulega wątpliwości, że zastosowanie sztucznej inteligencji przyniesie (na niektórych polach już przynosi) znaczące zmiany. Wśród rodzajów AI możemy wyróżnić (Parlament Europejski, 2020):

  • oprogramowanie - do którego zalicza się np. wirtualnych asystentów, wyszukiwarki internetowe, oprogramowanie do analizy obrazu, systemy rozpoznawania mowy;
  • "ucieleśnioną" AI - np. roboty, samochody autonomiczne, internet rzeczy5 (podłączone do sieci odkurzacze, lodówki, zegarki).

Zauważalnym jest, że w coraz bardziej znaczącym stopniu oddziałuje ona na nasze codzienne życie. Choć może obecnie jeszcze nie w pełni zdajemy sobie sprawę ze skali tego wpływu, to warto się zastanowić nad jego potencjalnymi konsekwencjami. Dzięki temu, że sztuczna inteligencja jest wyposażona w zdolność do samouczenia się nie tylko z nabytego doświadczenia, ale również ze środowiska, w którym się znajduje, może w znaczący sposób zmienić mechanizmy funkcjonowania otoczenia. Jednym z narzędzi AI jest ChatGPT, będący dobrym przykładem dla zilustrowania występującej innowacji przełomowej.

Innowacje w obszarze AI - ChatGPT (Chat Generative Pre-Trained Transformer) jako innowacja przełomowa

Na gruncie ekonomiki innowacji ta ostatnia jest rozumiana jako "kompleksowy proces oparty na określonej ścieżce zależności charakteryzujący się występowaniem współzależności i wzajemnych interakcji pomiędzy zróżnicowanymi aktorami wykazującymi zdolności do uczenia się i reagowania w sposób kreatywny na pojawiające się okoliczności" (Antonelli, 2009). Antonelli wskazuje na kilka składowych procesu innowacyjnego: obecność zróżnicowanych aktorów, kwestie lokalizacyjne, charakter wykorzystywanej wiedzy i wzajemnych powiązań o nastawieniu lokalnym, kreatywność oraz współzależności systemowe.

Według Josepha Schumpetera innowacja pojawia się w efekcie nagłego zaistnienia radykalnej zmiany, która staje się podstawą dla kolejnych przemian (Schumpeter, 1939). Innowacja to proces, w którym wiedza technologiczna i powiązane z nią zastosowanie przemysłowe dla danego rozwiązania przy wykorzystaniu nowych schematów działania przyczynia się do wyodrębnienia zmodyfikowanego modelu działania biznesowego. Tempo wdrażania innowacji jest różne w zależności od sektora (Marszałek, 2022).

Pisano wyróżnił cztery rodzaje innowacji:

  • rutynowe (routine innovation) - wykorzystują istniejące zdolności techniczne i wpisują się w aktualnie działający model biznesowy;
  • przełomowe (disruptive innovation) - wymagają zastosowania nowego modelu biznesowego, ale posiadane zaplecze technologiczne nie musi ulec zmianom6;
  • radykalne (radical innovation) - mają charakter czysto technologiczny (prace nad nowymi lekami prowadzone przez firmy biotechnologiczne), natomiast nie ma konieczności, by wcześniej wypracowany (w założeniu dobrze funkcjonujący) model biznesowy podlegał modyfikacjom;
  • architektoniczne (architectural innovation) - stanowią konglomerat zachodzących zmian o charakterze technologicznym przy jednoczesnej modyfikacji modelu biznesowego (Pisano, 2020, s. 82).

Te ostatnie są najbardziej skomplikowaną formą innowacji, z którymi działający na rynku gracze mogą mieć najwięcej trudności w procesie ich projektowania, a później wdrażania. Innowacje rutynowe wymagają zwykle dużych nakładów finansowych i przezwyciężenia piętrzących się trudności natury technicznej. Z kolei innowacje przełomowe są proste, łatwo dostępne i przystępne (Christensen i Dillon, 2020, s. 51), ale pod wpływem okoliczności generują potencjał do dokonania poważnej albo nawet rewolucyjnej zmiany w danej branży. Obrazowo rzecz ujmując, zaczynają od dolnej półki rynkowej, by stopniowo przechodzić ku kolejnym etapom równocześnie eliminując występujących na nich konkurentów.

Innowacje radykalne zakładają znaczące zmiany w technologii produktu, a przełomowe - w procesie jego rozwoju i ulepszania. Zwykle radykalne są bardziej kosztochłonne niż przełomowe, co może negatywnie wpływać na pozycję finansów korporacyjnych danego przedsięwzięcia.

Mapa Krajobrazu Innowacji (Innovation Landscape Map) autorstwa Pisano (2020)7 pokazuje dwa kluczowe wymiary innowacji: zmianę technologiczną oraz w funkcjonowaniu modelu biznesowego (tabela 1). W macierzy dokonano rozróżnienia, czy dane przedsiębiorstwo, wdrażając innowację, będzie mogło korzystać z posiadanych zasobów technologicznych (czy też musi wytworzyć nowe) oraz czy może prowadzić działalność na podstawie przyjętego modelu biznesowego (czy też należy go zmodyfikować).

Tabela 1
Mapa Krajobrazu Innowacji

MAPA KRAJOBRAZU INNOWACJI
  INNOWACJE PRZEŁOMOWE INNOWACJE ARCHITEKTONICZNE
Nowy model biznesowy
  • oprogramowanie o otwartym kodzie źródłowym (producenci oprogramowania)
  • wideo na życzenie (wypożyczalnie płyt DVD)
  • współdzielone przejazdy (korporacje taksówkowe, wypożyczalnie limuzyn)
  • medycyna spersonalizowana (firmy farmaceutyczne)
  • cyfrowe obrazowanie (Polaroid, Kodak)
  • wyszukiwanie w internecie (gazety)
  INNOWACJE RUTYNOWE INNOWACJE RADYKALNE
Istniejący model biznesowy
  • seria 3 nowej generacji (BMW)
  • nowy fundusz indeksowy (fundusz Vanguard)
  • nowy trójwymiarowy film animowany (studio Pixar)
  • biotechnologia (firmy farmaceutyczne)
  • silniki odrzutowe (producenci samolotów)
  • światłowody (firmy telekomunikacyjne)
  Istniejące kompetencje techniczne Nowe kompetencje techniczne

Źródło: "Twórcze budowanie: DNA trwałej innowacyjności", G. Pisano, 2020, ICAN Management Review, 4, s. 87 (https://www.ican.pl/a/tworcze-budowanie-dna-trwalej-innowacyjnosci/DzXzuzuiV).

Decyzję o tym, którą strategię wybrać, podejmuje dane przedsiębiorstwo, biorąc pod uwagę posiadane zasoby technologiczne oraz wdrażany model biznesowy. Dopiero wówczas jest możliwe wypracowanie właściwej formuły dla działania organizacji. Christensen i Bower, obserwując funkcjonowanie przedsiębiorstw, doszli do przekonania, że starają się one unikać zbyt radykalnych zmian technologicznych w konsekwencji prowadzących do zmniejszenia się wartości ich zasobów, a także wywołujących zjawisko kanibalizacji wytwarzanych produktów (Christensen i Bower, 1996). Innowacje radykalne doprowadzają bowiem do sytuacji, w której przyszłość staje się mniej przewidywalna, gdyż dotychczasowe rozwiązania nie znajdują już zastosowania.

Ciąg następujących po sobie i wzajemnie powiązanych innowacji radykalnych składa się na tzw. przełomy/kaskady innowacyjne. Powinny być one postrzegane jako konstrukt teoretyczny, istniejący obok funkcjonującego podziału na innowacje radykalne i przełomowe, a nie go zastępujący (Niosi i McKelvey, 2018, s. 1086). Są one definiowane jako nowe paradygmaty naukowe i nowe trajektorie technologiczne prowadzące do zmian na wielu płaszczyznach (Suenaga, 2015). Ich występowanie jest zależne od wsparcia oferowanego przez ośrodki akademickie i badawcze, jak również przedsiębiorstwa z dostępem do kapitału venture oraz środowisko regulacyjne sprzyjające innowacyjności (Niosi i McKelvey, 2018, s. 1092).

Wracając do ChatGPT - jest to opracowany przez firmę Open AI (2023) chatbot8, który wytwarza odpowiedzi na zadane przez użytkownika pytania (czyli w języku informatycznym na dane wprowadzone przez użytkownika systemu). Został on uruchomiony jako prototyp 30 listopada 2022 roku i wywołał niemałe zamieszanie m.in. ze względu na fakt, że mimo iż potrafił udzielać informacji z wielu dziedzin, to nie zawsze były one prawidłowe9. Ale nie zmienia to faktu, że zasadnym jest postawienie pytania: czy w świetle dokonujących się unowocześnień są jakieś granice sztucznej inteligencji? A jeśli tak, to gdzie one przebiegają?

Próby uregulowań prawnych związanych z AI

Sztuczna inteligencja stanowi kombinację oprogramowania (software) oraz zestawu danych (Kemp, 2021, s. 2). AI posługuje się algorytmami rozumianymi w kategorii zestawu reguł, które mają za zadanie rozwiązanie napotkanego problemu. Taki algorytm występuje w postaci kodu w oprogramowaniu. Zarówno algorytm, jak i oprogramowanie mogą być (i w przypadku AI są) dynamiczne, tzn. wykazują cechy permanentnego uczenia się.

System prawny stoi w obliczu pojawiających się wyzwań związanych ze sztuczną inteligencją. Można je zgrupować na te, które dotyczą odpowiedzialności człowieka za działania podejmowane przez sztuczną inteligencję i te określające odpowiedzialność AI za "swoje" działania w stosunku do człowieka (Braman, 2006, s. 278). Są to zagadnienia bardzo kontrowersyjne, szczególnie to ostatnie, co nie zmienia faktu, że wymuszają one na prawodawcy określenie regulacji, w obrębie których AI będzie funkcjonować.

Czy należy zatem tworzyć ogólne (holistyczne) zasady, które będą uniwersalne, dla wszystkich zastosowań AI, czy może wręcz przeciwnie, dopasowywać je do specyficznych rozwiązań, np. w sektorze zdrowotnym, logistycznym czy praw własności intelektualnej? Kto ma być ich regulatorem: Unia Europejska, państwa członkowskie, organizacje międzynarodowe np. OECD czy wyspecjalizowane instytucje działające w sektorze AI (Boucher, 2020, s. V)?

Potrzeba dostosowania prawa do tej nowej rzeczywistości jest istotna, zważywszy już na sam fakt, że zdaniem futurologów z Grand View Research "przychody rynku sztucznej inteligencji do końca dekady wzrosną niemal trzynastokrotnie" (Infor, 2023). Z raportu firmy PriceWaterhouseCoopers (PwC, 2017) wynika, że sztuczna inteligencja może wnieść do światowej gospodarki do 2030 roku około 15,7 biliona dolarów10. Brak regulacji w obszarze AI w powiązaniu z jej dynamicznie zwiększającą się wartością rynkową otwiera bardzo duże pole do nadużyć czy nadinterpretacji.

Należy tutaj również wspomnieć o podłożu etycznym funkcjonowania AI i braku tzw. swoistego wentyla bezpieczeństwa. Jak zauważa Aleksandra Przegalińska: "AI napędza się cały czas sama" (Infor, 2023). Z jednej strony sztuczna inteligencja podlega ciągłemu rozwojowi, co w świetle ustanawiania jakichkolwiek reguł jej funkcjonowania może rodzić wiele problemów, gdyż regulacje mogą się okazać nieaktualnymi już w samym momencie ich opracowywania (in statu nascendi). Ale, z drugiej strony, co jeżeli projektowane rozwiązania wymkną się spod kontroli11, albo - co może bardziej realne zważywszy na dokonujący się postęp - przejmą kontrolę. Wtedy może już nie być odwrotu. Jak zauważył Geoffrey Hinton: "jeżeli w ogóle istnieje sposób na utrzymanie AI pod kontrolą, musimy go znaleźć, zanim stanie się ona zdolna do wyprzedzenia naszych ruchów" (Pascual, 2023).

10 kwietnia 2018 roku 25 państw europejskich podpisało deklarację w sprawie współpracy nad sztuczną inteligencją. Dwa miesiące później Komisja Europejska powołała grupę (High Level Expert Group on Artificial Intelligence)12 składającą się z 52 ekspertów mających się zająć implementacją europejskiej strategii w obszarze sztucznej inteligencji. W lutym 2019 roku Parlament Europejski przyjął rezolucję w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki (Kritikos, 2019, s. 5). W lutym 2020 roku Komisja Europejska opublikowała dokument precyzujący, w jaki sposób powinno się określić ramy regulacyjne dla sztucznej inteligencji, przede wszystkim skupiając się na podejściu związanym z ryzykiem (risk-based approach) (European Commission, 2020). KE proponuje wprowadzenie, wykorzystywanych już w bankowości, testów warunków skrajnych13 opartych na ryzyku. W analizach brano by pod uwagę, w jakim sektorze działa sztuczna inteligencja (i czy on sam w sobie już generuje ryzyko14) oraz czy wykorzystanie AI może spowodować pojawienie się wysokiego ryzyka. Dopiero kumulatywny wymiar testu, tzn. oszacowanie ryzyka jako wysokiego zarówno w ujęciu sektorowym, jak i zastosowania AI predestynuje do postrzegania AI w ujęciu wysoce ryzykownym.

W czerwcu 2023 roku Parlament Europejski przyjął akt o sztucznej inteligencji (Artificial Intelligence Act - AIA) (European Parliament, 2023a), a 9 grudnia 2023 r. Rada i Parlament Europejski osiągnęły porozumienie w tej kwestii (European Parliament, 2023b). Akt ma mieć charakter unijnego rozporządzenia, co oznacza, że zostanie on zaimplementowany do krajowych porządków prawnych, zapewne wymuszając dokonanie w nich niezbędnych zmian. Co istotne - nie będzie to dokument stały - regulacja ta będzie podlegać modyfikacjom w miarę dokonywania przez Komisję Europejską systematycznych przeglądów postępów prac w tym zakresie. Założeniem przyświecającym UE jest stworzenie swoistego kodeksu AI, ukazanie jej bardziej humanocentrycznej strony. Jest to europejskie podejście do sztucznej inteligencji, która ma być postrzegana jako godna zaufania (trustworthy AI)15. W myśl aktu technologie w obrębie AI mają zostać zakwalifikowane do jednej z czterech grup ryzyka (Stawicka, 2023):

  • niedopuszczalnego (np. pozyskiwanie danych biometrycznych w czasie rzeczywistym w przestrzeni publicznej czy klasyfikowanie ludzi na podstawie ich zachowań) - takie mają zostać zakazane - opisano je w Tytule II rozporządzenia (Komisja Europejska, 2021);
  • Wysokiego (wpływające negatywnie na bezpieczeństwo i prawa podstawowe) - ich klasyfikacja została zawarta w Tytule III rozporządzenia (Komisja Europejska, 2021);
  • ograniczonego;
  • minimalnego.

W AIA sporo miejsca poświęcono również generatywnym systemom sztucznej inteligencji (należy do nich np. ChatGPT), gdyż nie ulega wątpliwości, że zagrożenia związane z technologią typu ChatGPT mogą w istotny sposób przemodelować dotychczasowe funkcjonowanie takich zawodów jak dziennikarz, lekarz czy prawnik (Markiewicz, 2023, s. 145). Yuval Noah Harari (The Economist, 2023) przestrzega przed rozwojem nowych narzędzi sztucznej inteligencji, które wykazują znaczną zdolność do manipulowania językiem. Zaleca, by dokonywać w takich przypadkach szczegółowych kontroli bezpieczeństwa i opracować stosowne procedury administracyjno-prawne, po zastosowaniu których dane narzędzie AI mogłoby być dopuszczone do użytku. Pomocne mogą być tutaj procedury związane z technology assessment (zwane dalej: TA), o których szerzej w ostatniej części artykułu.

Zagadnienia związane z oceną technologii i jej uwarunkowaniami

Zagadnienia związane z technology assessment (TA) odgrywają i będą odgrywać coraz większe rolę. Termin ten został po raz pierwszy użyty w latach 60. XX wieku w Stanach Zjednoczonych (Dadario, 1967), a w 1972 roku przy Kongresie USA powstało Biuro Oceny Technologii (Stankiewicz, 2015, s. 36).

TA można określić jako "procedurę systematycznego, naukowego badania uwarunkowań i konsekwencji stosowania określonych technologii, uwzgledniającą ich społeczną ocenę" (Grunwald, 2002, s. 51). Początkowo TA było definiowane jako narzędzie ułatwiające diagnozowanie negatywnych lub niepożądanych (pod kątem ekonomicznym lub społecznym) rezultatów związanych z rozwojem technologii (Smits i in., 1995, s. 279), postrzegano ją jako swoisty system wczesnego ostrzegania. Obecnie takie zagadnienia jak te związane z transferem technologii czy czynnikami prowadzącymi do wdrażania technologii oraz ich uwarunkowaniami prawno-społecznymi znajdują się w sferze zainteresowań TA. Ta perspektywa ewoluuje również w kierunku silniejszego powiązania TA z procesem podejmowania decyzji, który w nomenklaturze bywa nazywany modelem partycypacyjnym (por. tabela 2).

Tabela 2
Tradycyjne versus nowoczesne postrzeganie TA

Tradycyjne podejście do TA Nowoczesne podejście do TA
  • dominująca rola nauki
  • wysokie oczekiwania związane z badaniami poświęconymi TA
  • wynik TA: raporty studyjne
  • stosunkowo małą wagę przywiązuje się do definiowania pojawiających się problemów
  • jednoaspektowe możliwości badań związanych z TA
  • instrumentalne wykorzystanie informacji płynących z TA
  • rezultaty płynące z TA wykorzystane w procesie podejmowania decyzji
  • technologia jako dobro autonomiczne
  • równa rola twórców i użytkowników technologii
  • małe oczekiwania związane z badaniami poświęconymi TA
  • wynik TA: studia i dyskusje
  • dużą wagę przywiązuje się do definiowania pojawiających się problemów
  • wieloaspektowe możliwości badań związanych z TA
  • koncepcyjne wykorzystanie informacji płynących z TA
  • dostosowanie TA do procesów związanych z podejmowaniem decyzji
  • technologia jako produkt działalności człowieka

Źródło: "Technology assessment and technology policy in Europe: new concepts, new goals, new infrastructure", R. Smits, J. Leyten i P. den Hertog, 1995, Policy Science, 28, s. 280 (https://doi.org/10.1007/BF01000290).

W tak rozumianym procesie oceny technologii zasadniczym celem jest dostarczenie decydentom wiedzy o prawnych, ekonomicznych, społecznych i etycznych uwarunkowaniach wdrażania technologii (Gwiazdowicz i Stankiewicz, 2015, s. 5). Stanowi więc ona element szeroko rozumianego procesu współrządzenia (governance) nauką i technologią, gdzie grono osób mających wpływ na podjęcie ostatecznych decyzji rozszerzone jest m.in. o zainteresowane grupy społeczne, przedstawicieli biznesu czy szeroko rozumianej opinii publicznej (Gwiazdowicz i Stankiewicz, 2015, s. 8). Dzięki takiemu podejściu można w sposób aktywny przyczyniać się do współtworzenia innowacji technologicznych, a także w pewnym stopniu kształtować pojawiające się trendy w tym obszarze (Stankiewicz, 2015, s. 36).

Na proces ewolucji technology assessment można spojrzeć z czterech perspektyw (Porter, 1995, s. 136-138):

  1. Regulacyjnej - państwo powinno określić uwarunkowania prawne związane z rozwojem technologii. W tym ujęciu samo TA służy jedynie kontroli zachodzących procesów technologicznych, pełni rolę swego rodzaju strażnika (watchdog).
  2. Popularyzacyjnej związanej z ujmowaniem TA jako narzędzia ułatwiającego formułowanie polityk w zakresie promowania innowacji technologicznych, przy szczególnym ukierunkowaniu na wzrost konkurencyjności danego państwa.
  3. Konstruktywnej - rozwój technologii dokonuje się w wyniku negocjacji między zainteresowanymi stronami i jest dostosowany do priorytetów natury społecznej lub politycznej. Przewiduje on proaktywne zachowanie państwa mające na celu konstruktywne przedefiniowanie procesów związanych z zachodzącymi zmianami technologicznymi. Ale i tutaj możliwe jest podążanie z góry określoną ścieżką (tzw. path dependence), co może skutkować tym, że rezygnacja z pewnych (nieraz kontrowersyjnych) technologii jest niemożliwa.
  4. Eksperymentalnej/partycypacyjnej - szerokie grono interesariuszy uczestniczy w testowaniu nowości technologicznych dokonując ich oceny oraz opracowując rekomendacje dotyczące możliwych do wprowadzenia ulepszeń.

Próbując dokonać charakterystyki TA można przyjąć, że orientuje się ona w kierunku redukowania społecznych kosztów związanych z procesem wdrażania nowych technologii, badaniem prawnych oraz etycznych uwarunkowań diagnozujących mogące się pojawić trudności i problemy, czy eliminowania skutków błędnych decyzji w tym zakresie (Schot i Rip, 1997, s. 251). TA nie jest zwykłym narzędziem stosowanym w procesie zarządzania, bardziej można ją określić jako dobrą praktykę angażującą - od samego początku - zainteresowane strony przy wykorzystaniu elementów społecznego uczenia się. W TA uczestniczą różne typy podmiotów: te które inwestują w rozwój technologii i ponoszą z tego tytułu określone koszty (np. przedsiębiorstwa, laboratoria badawcze) oraz te, które uczestniczą w procesie rozwoju technologii próbując wywierać wpływ poprzez ustanawianie odpowiednich regulacji prawno-finansowych (np. agencje rządowe) czy zorganizowane kampanie społeczne (np. przedstawiciele trzeciego sektora czy pacjenci) (Schot i Rip, 1997, s. 256).

Jeśliby pokusić się o scharakteryzowanie procesu oceny technologii, to jego pierwszym etapem jest zdefiniowanie samego problemu. Później dokonywany jest opis technologii wraz z jej poszczególnymi składowymi, zwłaszcza w kontekście ich rozwoju na przestrzeni czasu. Następne trzy kroki w postaci: identyfikacji wpływu, analizy oraz oceny są kluczowe dla TA. To wówczas stawiane są pytania: Jakie mogą być rezultaty wdrażanych technologii? Jakie jest prawdopodobieństwo ich wystąpienia? Dokonuje się wtedy oceny wpływu we wszystkich możliwych konfiguracjach, w tym prawnej, ekonomicznej czy społecznej. Analiza wpływu poprzedza przeprowadzenie analizy politycznej, która służy wyjaśnieniu podjętych decyzji oraz ich potencjalnych konsekwencji. Nie można również zapominać o poinformowaniu wszystkich zainteresowanych stron o osiągniętych rezultatach.

Odpowiedzialność związana z zarządzaniem nowymi technologiami rozkłada się na wielu aktorów, a w konsekwencji każdy z nich ma jej inny zakres, a więc i ściśle wyznaczoną rolę do odegrania. Warto się w tym miejscu zastanowić czy można dokonać pełnej analizy kosztów i korzyści związanych z wprowadzanymi rozwiązaniami technologicznymi. Pojawia się tutaj swoisty dylemat, zwany dylematem Collingridge'a16 (Demos Helsinki, b.d.). Z jednej strony wpływ nowych technologii może zostać oszacowany dopiero po ich wdrożeniu na szerszą skalę. Z drugiej strony dyfuzja technologii pociąga za sobą utrudnienia w procesie jej kontrolowania, gdyż praktyka wskazuje, że im dane zjawiska mają mniejszy zasięg - a tym samym ograniczona jest potencjalna liczba zmiennych niezależnych im towarzyszących - tym łatwiej monitorować zakresy ich wpływu.

Samo zagadnienie wykorzystania technologii dla potrzeb społeczeństwa niesie za sobą niepewność co do ich ewentualnych przyszłych skutków. Niektóre rozwiązania dobre dla pewnej grupy interesariuszy mogą okazać się równocześnie szkodliwe dla innej. Stąd należy tutaj głównie pamiętać o kwestiach etycznych czy prawnych. Z pewnością trzeba dążyć do maksymalizacji korzyści (i minimalizacji kosztów) wynikających z wdrażania rozwiązań innowacyjnych oraz minimalizacji mogącego wystąpić (obecnie i w przewidywanej przyszłości) ryzyka.

W jaki zatem sposób można odpowiedzieć na konsekwencje rozwoju nowych technologii w sytuacji, gdy często ten proces przebiega nielinearnie i bywa nieprzewidywalny, czego najlepszym przykładem jest rozwój AI? O tym, jak ważny jest dialog między twórcami nowych technologii a podmiotami, które mają je wykorzystywać nie trzeba nikogo przekonywać. Należy ku temu stworzyć odpowiedni klimat sprzyjający wzajemnemu dzieleniu się wiedzą. A to uzależnione jest od zaufania: im wyższy jest jego poziom, tym bardziej kompleksowe i rozwinięte stają się sieci wymiany wiedzy (Marszałek, 2016).

Zakończenie

Rozwiązania nowatorskie charakteryzują się tym, że ich zastosowania mają zarówno zwolenników, jak i przeciwników (nieraz zagorzałych). Szczególnie na początku, gdy innowacja jest pełna niewiadomych, może również zaburzać dotychczas istniejący porządek. Czy tak będzie (a może już jest) ze sztuczną inteligencją?

Jeżeli AI już jest w stanie sama pisać kody, to niedaleka stąd droga do swoistego usamodzielnienia się, a potem do wymknięcia się jej spod kontroli człowieka. Wizja ucieczki AI - scenariusz budzący duże zaniepokojenie i ani trochę nie nierealny - wcale nie jest taka odległa, o czym świadczą przytoczone w tekście wypowiedzi samych twórców AI. W zupełnie niedalekiej przyszłości możemy być świadkami sytuacji opisanej przez Wójcik (2023, s. 61):

Zanim OpenAI wypuściło ChatGPT postanowiło przetestować produkt pod względem bezpieczeństwa. W jednym przypadku na drodze chatbota stanęła captha. To internetowy test na człowieczeństwo, w którym warunkiem przejścia dalej jest odczytanie graficznie przedstawionych liter i cyfr, z czym nie radzi sobie (jeszcze) AI. Ta jednak za pośrednictwem chatu skontaktowała się z pracownikiem agencji pracy tymczasowej i w zamian za wynagrodzenie poprosiła o pomoc w odczytaniu capthy. Gdy pracownik zapytał, czy przypadkiem nie ma do czynienia z robotem, ChatGPT odpowiedział: "Nie, nie jestem robotem. Mam tylko problemy ze wzrokiem".

Z przeprowadzonych rozważań wynika, że konieczne jest jasne określenie, które kwestie na płaszczyźnie zastosowania sztucznej inteligencji wymagają uregulowania oraz doprecyzowanie, na jakim poziomie i w jakim zakresie należy to uczynić. Nie jest to zadanie łatwe, szczególnie gdy ma się na uwadze, z jak dynamicznie rozwijającą się materią mamy do czynienia. Stąd duże wyzwanie przed twórcami rozwiązań prawnych, gdyż chodzi m.in. o to, by nie przekroczyć tego Rubikonu, gdzie pewne projektowane rozstrzygnięcia zamiast rozwiązywać problemy człowieka, bardziej mogą mu zaszkodzić, a nawet przyczynić się do marginalizacji jego roli.

Obserwowana ostatnimi czasy popularność innowacji przełomowej, jaką jest ChatGPT i jego kolejne odsłony, które z pewnością są już testowane w zaciszu laboratoriów badawczych, wymaga większego skupienia się na etycznych, ale również i prawnych aspektach zastosowania tej technologii. Pomocne mogą być tutaj rozwiązania przyjęte w ramach procedury oceny technologii. Chyba nikt z nas nie odpowiedziałby twierdząco na pytanie: Czy jesteśmy gotowi na funkcjonowanie w świecie, w którym roboty przejmą nad nami kontrolę? Wydaje się, że odpowiedź nasuwa się sama. Stąd regulacje prawne w tym obszarze są wielce pożądane i w interesie całej społeczności ludzkiej jest to, by wdrażano je bez zbędnej zwłoki, a proces oceny technologii następował permanentnie, aby na czas wyeliminować zagrożenia. Gdyż jeśli się one zmaterializują, to może już niestety nie być odwrotu.

Bibliografia

INFORMACJE O AUTORZE

Anna Marszałek

Autorka jest doktorem Uniwersytetu Jagiellońskiego (2009). W roku akademickim 2007/2008 była stypendystką Funduszu im. Adama Krzyżanowskiego przyznawanego przez Fundację Kulturalną Rodziny Pruszyńskich w Lichtensteinie. W 2009 roku zdobyła Małopolskie Stypendium Doktoranckie, przyznawane w ramach działania 2.6. "Regionalne Strategie Innowacyjne i transfer wiedzy" ZPORR 2004-2006. Podczas studiów doktoranckich przebywała na stypendium naukowo-badawczym na Uniwersytecie w Karlsruhe w Badenii-Wirtembergii. Ma na swoim koncie monografie oraz wiele artykułów poświęconych roli ośrodków akademickich w gospodarce opartej na wiedzy, transferowi technologii oraz innowacjom.

Była członkiem zespołu zajmującego się przygotowaniem i wdrażaniem Europejskich Ram Kwalifikacji (ERK) w Komisji Europejskiej w Dyrekcji Generalnej Edukacja i Kultura. Od ponad 13 lat pracuje w Narodowym Centrum Nauki - agencji wykonawczej Ministerstwa Nauki i Szkolnictwa Wyższego, od blisko siedmiu na stanowisku kierownika Zespołu Wsparcia Ekspertów.

 

Informacje o artykule

DOI: https://doi.org/10.15219/em105.1669

W wersji drukowanej czasopisma artykuł znajduje się na s. 22-30.

pdf pobierz artykuł w wersji PDF

pdf abstract in English

Jak cytować

Marszałek, A. (2024). Nowe technologie w obliczu wyzwań sztucznej inteligencji (AI). e-mentor 3(105), 22-30. https://doi.org/10.15219/em105.1669

Komentarze

Nie ma jeszcze komentarzy do tego artykułu.

dodaj komentarz dodaj komentarz

Przypisy

1 Niniejszy tekst jest wyrazem przemyśleń Autorki i opinie w nim zawarte nie muszą być zbieżne z polityką NCN. Artykuł ma charakter poglądowy i informacyjny, a powoływanie się na treści w nim zawarte nie jest prawnie wiążące.

2 Grupa przedsiębiorców i ekspertów pracujących nad AI poinformowała w 2023 roku, że technologia ta "stanowi egzystencjalne zagrożenie dla ludzkości, porównywalne z pandemią czy wojnami nuklearnymi". Pod tym publicznym listem podpisali się m.in.: Sam Altman - szef OpenAI, twórca ChatGPT, Demis Hassabis - szef działu AI w Google, Geoffrey Hinton oraz Yoshua Bengio. Ci ostatni to laureaci Nagrody Turinga, uważani za ojców chrzestnych współczesnej AI (Wójcik, 2023, s. 59).

3 Jest to kategoria uczenia maszynowego polegająca na stworzeniu algorytmu, który uczy się dużej ilości danych i je wiernie wykorzystuje do stworzenia np. dzieła malarskiego (Konieczna, 2019, s. 105). Przykładem może być tutaj obraz w całości wygenerowany przez sztuczną inteligencję Edmond de Belamy. Został on stworzony w 2018 roku przez kolektyw Obvious przy wykorzystaniu algorytmu, który "zapamiętał" 15 000 portretów z różnych epok (od XIV do XIX wieku) i na tej podstawie "namalował" dzieło. Zostało ono sprzedane w domu aukcyjnym Christie's za sumę 432 500 $. Sam tytuł dzieła stanowi hołd złożony jednemu z twórców sieci neuronowych - Ianowi Goodfellowowi (tłumaczenie jego nazwiska z języka angielskiego: dobry przyjaciel). Belamy to z kolei zmodyfikowany francuski odpowiednik "bel ami", czyli. "dobry przyjaciel" (Brooke-Hitching, 2022).

4 Uczenie maszynowe to technologia, która uczy komputery wykonywania zadań na podstawie przeanalizowanych danych (Konieczna, 2019, s. 105).

5 Szerzej na temat internetu rzeczy w Puślecki, 2021.

6 Co nie znaczy, że nie może tym zmianom podlegać.

7 Przy jej opracowaniu Pisano korzystał z dorobku takich badaczy jak K. Clark, W. Abernathy, R. Henderson, M. Tushman, C. Christensen.

8 Chatbot to program komputerowy którego zadaniem jest prowadzenie konwersacji z udziałem komputera, który replikuje zachowania ludzkie. Por. https://pl.wikipedi... (pobrano 31.01.2024).

9 ChatGPT nawet wymyślał informacje, by zapewnić jak największą spójność tekstu (Liebrenz i in., 2023) https://pl.wikipedi... (pobrano 31.01.2024).

10 Jest to więcej niż obecna wartość łącznej produkcji Chin i Indii.

11 Choć niektórzy badacze proponują, by zamiast kontroli sztucznej inteligencji pozwolić jej na swobodne działanie i obserwować, co się wydarzy (Coeckelbergh, 2013). Taka propozycja wydaje się być dość kontrowersyjna, patrząc na aktualny rozwój AI i emocje, jakie ona wywołuje.

12 Zob. szerzej European Commission, b.d.

13 Testy przeciążające pozwalające na ocenę, jak zachowa się system w warunkach zadowalających lub ekstremalnych.

14 Zaliczono do nich np. systemy: energetyczny, zdrowia czy transportowy.

15 Stąd tak duży nacisk będzie kładziony na wspieranie badań nad etyką sztucznej inteligencji (Kusznieruk, 2023, s. 7-18).

16 Można go obrazowo streścić następująco: Czy możemy zmusić technologię, by działała tak, jak chcemy, jednocześnie unikając przy tym niepożądanych konsekwencji? W latach 80. XX wieku - kiedy nastąpił dynamiczny rozwój mikroelektroniki - David Collingridge poświęcił jej książkę, prezentując jej możliwy wpływ m.in. na zachowania występujące na rynku pracy. Publikacja wywołała niepokój wśród społeczeństwa związany z zakrojoną na szeroką skalę potencjalną automatyzacją i wiążącą się z nią możliwą utratą pracy. Aktualnie te same obawy towarzyszą dynamicznie postępującemu rozwojowi sztucznej inteligencji.