Chińskie organy regulacyjne prawdopodobnie wyciągnęły wnioski z unijnej ustawy o sztucznej inteligencji, mówi Jeffrey Ding, adiunkt nauk politycznych na Uniwersytecie George’a Washingtona. „Chińscy decydenci i uczeni twierdzą, że czerpali z aktów prawnych UE jako inspirację dla wydarzeń z przeszłości”.
Jednocześnie jednak niektórych środków podjętych przez chińskie organy regulacyjne nie można tak naprawdę zastosować w innych krajach. Na przykład chiński rząd prosi platformy społecznościowe o sprawdzanie treści przesyłanych przez użytkowników pod kątem sztucznej inteligencji. „Wydaje się, że jest to coś bardzo nowego i może być unikalne w kontekście Chin” – mówi Ding. „To nigdy nie miałoby miejsca w kontekście USA, ponieważ USA słyną z tego, że twierdzi, że platforma nie ponosi odpowiedzialności za treść”.
Ale co z wolnością słowa w Internecie?
Projekt rozporządzenia w sprawie oznaczania treści AI czeka na opinię publiczną do 14 października, a jego modyfikacja i uchwalenie może zająć jeszcze kilka miesięcy. Nie ma jednak powodu, dla którego chińskie firmy miałyby opóźniać przygotowania do wejścia tej zmiany w życie.
Sima Huapeng, założyciel i dyrektor generalny chińskiej firmy AIGC Silicon Intelligence, która wykorzystuje technologie deepfake do generowania agentów AI, influencerów oraz replikowania żywych i martwych ludzi, twierdzi, że jego produkt pozwala teraz użytkownikom dobrowolnie zdecydować, czy oznaczyć wygenerowany produkt jako sztuczną inteligencję. Ale jeśli prawo przejdzie, być może będzie musiał zmienić je na obowiązkowe.
„Jeśli dana funkcja jest opcjonalna, najprawdopodobniej firmy nie będą dodawać jej do swoich produktów. Ale jeśli stanie się to obowiązkowe na mocy prawa, wszyscy będą musieli to wdrożyć” – mówi Sima. Dodanie znaków wodnych lub etykiet metadanych nie jest technicznie trudne, ale zwiększy koszty operacyjne dla firm przestrzegających przepisów.
Jego zdaniem takie zasady mogą powstrzymać sztuczną inteligencję od wykorzystywania jej do oszustw lub naruszania prywatności, ale mogą również spowodować rozwój czarnego rynku usług sztucznej inteligencji, na którym firmy starają się unikać przestrzegania prawa i oszczędzać na kosztach.
Istnieje również cienka granica między pociąganiem do odpowiedzialności producentów treści AI a kontrolowaniem indywidualnych wypowiedzi za pomocą bardziej wyrafinowanego śledzenia.
„Największym wyzwaniem w zakresie praw człowieka jest upewnienie się, że te podejścia nie zagrażają w większym stopniu prywatności ani wolności słowa” – mówi Gregory. Chociaż ukryte etykiety i znaki wodne mogą służyć do identyfikowania źródeł dezinformacji i nieodpowiednich treści, te same narzędzia mogą umożliwić platformom i rządom lepszą kontrolę nad tym, co użytkownicy publikują w Internecie. W rzeczywistości obawy dotyczące tego, w jaki sposób narzędzia sztucznej inteligencji mogą stać się nieuczciwe, były jednym z głównych czynników napędzających proaktywne wysiłki Chin w zakresie legislacji w zakresie sztucznej inteligencji.
Jednocześnie chiński przemysł sztucznej inteligencji naciska na rząd, aby miał więcej przestrzeni do eksperymentowania i rozwoju, ponieważ pozostaje już w tyle za swoimi zachodnimi odpowiednikami. Wcześniejsze chińskie prawo dotyczące generatywnej sztucznej inteligencji zostało znacznie złagodzone pomiędzy pierwszym publicznym projektem a ostatecznym projektem ustawy, usuwając wymogi dotyczące weryfikacji tożsamości i zmniejszając kary nakładane na firmy.
„Zaobserwowaliśmy, że chiński rząd naprawdę próbuje balansować na granicy między «zapewnieniem, że utrzymamy kontrolę nad treścią» a «pozwoleniem laboratoriom sztucznej inteligencji w strategicznej przestrzeni na swobodę wprowadzania innowacji” – mówi Ding. „To kolejna próba osiągnięcia tego celu”.