Strona główna Biznes Jasne zasady AI w dziennikarstwie, imperatyw dla etyki – Euractiv

Jasne zasady AI w dziennikarstwie, imperatyw dla etyki – Euractiv

38
0


Opracowanie jasnych zasad i wytycznych dotyczących wykorzystania sztucznej inteligencji (AI) w dziennikarstwie jest niezbędne, aby zapewnić organizacjom medialnym dalsze przestrzeganie etycznych i przejrzystych praktyk.

Najnowsze osiągnięcia i większa integracja sztucznej inteligencji transformatorowy globalnych gałęzi przemysłu, a dziennikarstwo nie jest tu wyjątkiem. Narzędzia AI rozpoczynają nową erę w dziennikarstwie, w którym kluczowa jest szybkość, różnorodność treści i wydajność.

Od automatyzacji produkcji wiadomości po generowanie artykułów informacyjnych na podstawie ustrukturyzowanych danych – sztuczna inteligencja pomogła dziennikarzom zaoszczędzić czas i zasoby. Ułatwiło to także tworzenie większej ilości treści przy ograniczonych zasobach.

Jednak według Instytutu Studiów nad Dziennikarstwem Reutersa wzbudziło to również wątpliwości etyczne i redakcyjne w czasie, gdy zaufanie społeczeństwa do mediów wynosi około 40%. raport.

Przyszły wpływ sztucznej inteligencji jest niepewny, ale może mieć ona ogromny wpływ na sposób tworzenia i konsumpcji dziennikarstwa. Badania pokazuje, że jest ona nierównomiernie rozłożona, choć stanowi już znaczną część dziennikarstwa.

„Rzeczywistość i potencjał sztucznej inteligencji, uczenia maszynowego i przetwarzania danych mają dać dziennikarzom nowe możliwości odkrywania, tworzenia i nawiązywania kontaktów” – mówi Charlie Beckett, który kierował badania.

„Algorytmy będą napędzać systemy. Ale ludzki dotyk, wnikliwość i ocena dziennikarza będą na wagę złota. Czy branża informacyjna może wykorzystać tę szansę? Jakie zagrożenia gospodarcze, etyczne i redakcyjne niosą ze sobą technologie AI?” – pyta Beckett we wstępie do badania.

Próby regulacji

10 listopada 2023 r. Reporterzy bez Granic (RSF) i 16 organizacji partnerskich opublikowali raport Karta Paryska dotycząca sztucznej inteligencji i dziennikarstwa w kontekście Forum Pokojowego w Paryżu. Prace nad Kartą były wystrzelony w lipcu 2023 r.

Karta określa dziesięć kluczowych zasad ochrony integralności informacji i zachowania społecznej roli dziennikarstwa w odpowiedzi na „zamieszanie”, jakie sztuczna inteligencja wywołała na arenie informacyjnej i informacyjnej.

Podstawowe zasady stanowią, że etyka musi kierować wyborami technologicznymi w mediach; podmiot ludzki musi pozostać centralnym elementem decyzji redakcyjnych; media muszą pomagać społeczeństwu w niezawodnym rozróżnianiu treści autentycznych od syntetycznych; media muszą uczestniczyć w globalnym zarządzaniu sztuczną inteligencją i bronić rentowności dziennikarstwa podczas negocjacji z firmami technologicznymi.

Maria Ressa, laureatka Pokojowej Nagrody Nobla, która przewodniczyła komisji powołanej w tej sprawie przez RSF, argumentuje, że „innowacje technologiczne same w sobie nie prowadzą do postępu. Dlatego należy kierować się etyką, aby naprawdę przynosiła korzyść ludzkości”.

Oficjalny kodeks etyczny Towarzystwa Dziennikarzy Zawodowych (SPJ) zawiera cztery zasady: szukaj prawdy i zgłaszaj ją; zminimalizować szkody; działać niezależnie; bądź odpowiedzialny i przejrzysty. Wszystkie mają zastosowanie również do wykorzystania sztucznej inteligencji w dziennikarstwie.

Ogólnie zgoda jest to, że sztuczną inteligencję można stosować w dziennikarstwie, pod warunkiem, że będzie stosowana z umiarem i poddana weryfikacji faktów przez człowieka. Ponadto zachęca się dziennikarzy korzystających ze sztucznej inteligencji, aby w sposób przejrzysty informowali o jej roli w swojej pracy.

Potrzebne są dalsze badania

Aby stawić czoła wyzwaniom, jakie sztuczna inteligencja stwarza dla dziennikarstwa, ustawodawstwo będzie musiało zawierać jasne definicje kategorii sztucznej inteligencji i szczegółowe informacje dotyczące każdej z nich, argumentuje artykuł Centrum Wiadomości, Technologii i Innowacji (CNTI).

Nowsze narzędzia generatywnej sztucznej inteligencji (GAI), takie jak ChatGPT i DALL-E, oferując nowe sposoby usprawnienia tworzenia wiadomości, stwarzają również ryzyko zmniejszenia ruchu związanego z wyszukiwaniem w witrynach z wiadomościami i powstania pytań o naruszenie praw autorskich.

Krytycy twierdzą, że roli GAI w tworzeniu treści często brakuje przejrzystości, a niektórzy wydawcy szukali ochrony prawnej przed nieuprawnionym wykorzystaniem ich treści do szkoleń w zakresie sztucznej inteligencji.

W artykule wspomniano również o lukach badawczych w rozumieniu roli sztucznej inteligencji w dziennikarstwie oraz tego, jak odbiorcy postrzegają treści generowane przez sztuczną inteligencję, często postrzegając je jako mniej stronnicze. Duża część bieżących badań ma charakter teoretyczny, co wskazuje na potrzebę badań opartych na danych, szczególnie w kontekstach niezachodnich.

Artykuł CNTI podkreśla różne podejścia poszczególnych krajów, a ustawodawstwo pozostaje w tyle za rozwojem sztucznej inteligencji. Niektóre kraje, takie jak UE, traktują prywatność danych priorytetowo, podczas gdy inne, jak Chiny, koncentrują się na kontroli państwa.

Brak konsensusu w sprawie regulacji dotyczących sztucznej inteligencji komplikuje porozumienia globalne. Skuteczne polityki muszą uwzględniać złożoność samej sztucznej inteligencji, unikać niejasnych definicji i angażować różne zainteresowane strony, zwłaszcza te, na które sztuczna inteligencja jest najbardziej dotknięta, podsumowuje CNTI.

[Edited By Brian Maguire | Euractiv’s Advocacy Lab ]





Link źródłowy