Perplexity nie odpowiedziało na prośby o komentarz.
W oświadczeniu przesłanym e-mailem do WIRED dyrektor naczelny News Corp Robert Thomson niekorzystnie porównał Perplexity do OpenAI. „Pochwalamy firmy oparte na zasadach, takie jak OpenAI, które rozumieją, że uczciwość i kreatywność są niezbędne, jeśli mamy wykorzystać potencjał sztucznej inteligencji” – czytamy w oświadczeniu. „Perplexity nie jest jedyną firmą zajmującą się sztuczną inteligencją nadużywającą własności intelektualnej i nie jest to jedyna firma zajmująca się sztuczną inteligencją, wobec której będziemy działać energicznie i rygorystycznie. Daliśmy jasno do zrozumienia, że wolimy zabiegać o względy, niż pozywać, ale dla dobra naszych dziennikarzy, pisarzy i naszej firmy musimy rzucić wyzwanie kleptokracji treści”.
OpenAI musi jednak zmierzyć się z własnymi oskarżeniami o rozwodnienie znaku towarowego. w New York Times przeciwko OpenAITimes twierdzi że ChatGPT i Bing Chat będą przypisywać „Timesowi” zmyślone cytaty i oskarżają OpenAI i Microsoft o niszczenie ich reputacji poprzez rozwodnienie znaków towarowych. W jednym z przykładów cytowanych w pozwie „Times” utrzymuje, że Bing Chat twierdził, że „Times” nazywał czerwone wino (z umiarem) „zdrowym dla serca” jedzeniem, choć w rzeczywistości tak nie było; „Los Angeles Times” argumentuje, że jego aktualne doniesienia podważyły twierdzenia o zdrowotności umiarkowanego picia.
„Kopiowanie artykułów prasowych w celu obsługi zastępczych, komercyjnych produktów generatywnej sztucznej inteligencji jest niezgodne z prawem, jak wyjaśniliśmy w naszych pismach do Perplexity oraz w naszym postępowaniu sądowym przeciwko Microsoft i OpenAI” – mówi dyrektor ds. komunikacji zewnętrznej NYT, Charlie Stadtlander. „Pochwalamy ten pozew złożony przez Dow Jones oraz New York Post, co stanowi ważny krok w kierunku zapewnienia ochrony treści wydawców przed tego rodzaju sprzeniewierzeniem”.
Według Matthew Saga, profesora prawa i sztucznej inteligencji na Emory University, jeśli wydawcy przeważą w argumentacji, że halucynacje mogą naruszać prawo dotyczące znaków towarowych, firmy zajmujące się sztuczną inteligencją mogą stanąć przed „ogromnymi trudnościami”.
„Niemożliwe jest zagwarantowanie, że model językowy nie będzie miał halucynacji” – mówi Sag. Jego zdaniem sposób, w jaki działają modele językowe polegające na przewidywaniu słów, które brzmią poprawnie w odpowiedzi na podpowiedzi, jest zawsze rodzajem halucynacji — czasami po prostu brzmi bardziej wiarygodnie niż inne.
„Nazywamy to halucynacją tylko wtedy, gdy nie pasuje to do naszej rzeczywistości, ale proces jest dokładnie taki sam, niezależnie od tego, czy podoba nam się wynik, czy nie”.