Wpis „Czy blockchain może udowodnić, co jest prawdziwe w sieci w porównaniu z AI?" ukazał się na BitcoinEthereumNews.com. Jak często natknąłeś się na obraz w internecie i zastanawiałeś się: „PrawdziweWpis „Czy blockchain może udowodnić, co jest prawdziwe w sieci w porównaniu z AI?" ukazał się na BitcoinEthereumNews.com. Jak często natknąłeś się na obraz w internecie i zastanawiałeś się: „Prawdziwe

Czy blockchain może udowodnić, co jest prawdziwe w sieci w porównaniu z AI?

Jak często natknąłeś się na obraz w internecie i zastanawiałeś się: „Prawdziwy czy AI"? Czy kiedykolwiek czułeś się uwięziony w rzeczywistości, w której treści tworzone przez AI i człowieka zlewają się ze sobą? Czy nadal musimy je od siebie odróżniać?

Sztuczna inteligencja otworzyła świat kreatywnych możliwości, ale przyniosła również nowe wyzwania, zmieniając sposób, w jaki postrzegamy treści online. Od generowanych przez AI obrazów, muzyki i filmów zalewających media społecznościowe po deepfake'i i boty oszukujące użytkowników – AI dotyka obecnie ogromnej części internetu.

Według badania Graphite, ilość treści stworzonych przez AI przewyższyła treści tworzone przez człowieka pod koniec 2024 roku, głównie z powodu uruchomienia ChatGPT w 2022 roku. Inne badanie sugeruje, że ponad 74,2% stron w jego próbie zawierało treści generowane przez AI według stanu na kwiecień 2025 roku.

W miarę jak treści generowane przez AI stają się coraz bardziej wyrafinowane i prawie nie do odróżnienia od prac stworzonych przez człowieka, ludzkość staje przed palącym pytaniem: W jakim stopniu użytkownicy mogą naprawdę zidentyfikować, co jest prawdziwe, gdy wchodzimy w 2026 rok?

Zmęczenie treściami AI: Rośnie popyt na treści tworzone przez człowieka

Po kilku latach ekscytacji „magią" AI, użytkownicy internetu coraz częściej doświadczają zmęczenia treściami AI, zbiorowego wyczerpania w odpowiedzi na nieustępliwe tempo innowacji AI.

Według badania Pew Research Center, mediana 34% dorosłych na całym świecie była bardziej zaniepokojona niż podekscytowana zwiększonym wykorzystaniem AI w badaniu wiosennym 2025, podczas gdy 42% było równie zaniepokojonych i podekscytowanych.

„Zmęczenie treściami AI zostało przytoczone w wielu badaniach, ponieważ nowość treści generowanych przez AI powoli zanika, a w obecnej formie często wydaje się przewidywalna i dostępna w obfitości", powiedział Cointelegraph Adrian Ott, główny dyrektor ds. AI w EY Szwajcaria.

Źródło: Pew Research

„W pewnym sensie treści AI można porównać do przetworzonej żywności", powiedział, rysując podobieństwa między tym, jak oba te zjawiska ewoluowały.

„Kiedy po raz pierwszy stało się to możliwe, zalała rynek. Ale z czasem ludzie zaczęli wracać do lokalnej, wysokiej jakości żywności, gdzie znają pochodzenie", powiedział Ott, dodając:

Ott zasugerował, że etykiety takie jak „wykonane przez człowieka" mogą pojawić się jako sygnały zaufania w treściach online, podobnie jak „organiczne" w żywności.

Zarządzanie treściami AI: Certyfikacja prawdziwych treści wśród działających podejść

Chociaż wielu może twierdzić, że większość ludzi może rozpoznać tekst lub obrazy AI bez wysiłku, kwestia wykrywania treści stworzonych przez AI jest bardziej skomplikowana.

Wrześniowe badanie Pew Research wykazało, że co najmniej 76% Amerykanów twierdzi, że ważne jest, aby móc rozpoznać treści AI, a tylko 47% jest przekonanych, że mogą je dokładnie wykryć.

„Podczas gdy niektórzy ludzie dają się nabrać fałszywym zdjęciom, filmom lub wiadomościom, inni mogą odmówić wiary w cokolwiek lub wygodnie odrzucić prawdziwy materiał jako 'wygenerowany przez AI', gdy nie pasuje do ich narracji", powiedział Ott z EY, podkreślając problemy z zarządzaniem treściami AI online.

Źródło: Pew Research

Według Otta globalni regulatorzy wydają się zmierzać w kierunku oznaczania treści AI, ale „zawsze będą sposoby na to obejście". Zamiast tego zasugerował odwrotne podejście, w którym prawdziwe treści są certyfikowane w momencie ich przechwycenia, dzięki czemu autentyczność można prześledzić do rzeczywistego zdarzenia, zamiast próbować wykrywać fałszerstwa po fakcie.

Rola blockchain w ustalaniu „dowodu pochodzenia"

„W miarę jak syntetyczne media stają się trudniejsze do odróżnienia od prawdziwego materiału, poleganie na uwierzytelnianiu po fakcie nie jest już skuteczne", powiedział Jason Crawforth, założyciel i CEO Swear, startupu rozwijającego oprogramowanie do uwierzytelniania wideo.

„Ochrona będzie pochodzić z systemów, które wbudowują zaufanie w treści od samego początku", powiedział Crawforth, podkreślając kluczową koncepcję Swear, która zapewnia, że media cyfrowe są wiarygodne od momentu ich utworzenia przy użyciu technologii blockchain.

Oprogramowanie do uwierzytelniania wideo Swear zostało nazwane przez magazyn Time najlepszym wynalazkiem 2025 roku w kategorii Crypto i Blockchain. Źródło: magazyn Time

Oprogramowanie uwierzytelniające Swear wykorzystuje podejście oparte na odciskach palców blockchain, gdzie każda część treści jest połączona z księgą blockchain, aby zapewnić dowód pochodzenia – weryfikowalne „cyfrowe DNA", które nie może zostać zmienione bez wykrycia.

„Każda modyfikacja, bez względu na to, jak dyskretna, staje się możliwa do zidentyfikowania poprzez porównanie treści z jej oryginałem zweryfikowanym przez blockchain na platformie Swear", powiedział Crawforth, dodając: 

Do tej pory technologia Swear była wykorzystywana wśród twórców cyfrowych i partnerów korporacyjnych, celując głównie w media wizualne i audio na urządzeniach do nagrywania wideo, w tym kamerach nasobnych i dronach.

„Podczas gdy integracja z mediami społecznościowymi jest długoterminową wizją, naszym obecnym celem jest branża bezpieczeństwa i nadzoru, gdzie integralność wideo ma kluczowe znaczenie", powiedział Crawforth.

Perspektywy na 2026: Odpowiedzialność platform i punkty zwrotne

Gdy wchodzimy w 2026 rok, użytkownicy internetu są coraz bardziej zaniepokojeni rosnącą ilością treści generowanych przez AI i swoją zdolnością do odróżnienia mediów syntetycznych od stworzonych przez człowieka.

Podczas gdy eksperci AI podkreślają znaczenie wyraźnego oznaczania „prawdziwych" treści w przeciwieństwie do mediów stworzonych przez AI, pozostaje niepewne, jak szybko platformy internetowe rozpoznają potrzebę priorytetowego traktowania zaufanych treści stworzonych przez człowieka, gdy AI nadal zalewa internet.

Wydawca słowników Merriam-Webster nazwał slop słowem roku 2025 w związku z obawami dotyczącymi treści AI. Źródło: Merriam-Webster

„Ostatecznie to odpowiedzialność dostawców platform, aby zapewnić użytkownikom narzędzia do filtrowania treści AI i wyświetlania materiałów wysokiej jakości. Jeśli tego nie zrobią, ludzie odejdą", powiedział Ott. „W tej chwili jednostki nie mogą wiele zrobić samodzielnie, aby usunąć treści generowane przez AI ze swoich kanałów – ta kontrola w dużej mierze spoczywa na platformach".

W miarę jak rośnie zapotrzebowanie na narzędzia identyfikujące media stworzone przez człowieka, ważne jest, aby rozpoznać, że głównym problemem często nie są same treści AI, ale intencje stojące za ich tworzeniem. Deepfake'i i dezinformacja nie są całkowicie nowymi zjawiskami, chociaż AI dramatycznie zwiększyła ich skalę i prędkość.

Powiązane: Sieć Teksasu znowu się nagrzewa, tym razem od AI, a nie od górników Bitcoin

Przy zaledwie garstce startupów skupiających się na identyfikacji autentycznych treści w 2025 roku, kwestia ta nie eskalowała jeszcze do punktu, w którym platformy, rządy lub użytkownicy podejmują pilne, skoordynowane działania.

Według Crawfortha z Swear, ludzkość jeszcze nie osiągnęła punktu zwrotnego, w którym manipulowane media powodują widoczne, niezaprzeczalne szkody:

Źródło: https://cointelegraph.com/news/ai-era-internet-can-blockchain-prove-what-is-real?utm_source=rss_feed&utm_medium=feed&utm_campaign=rss_partner_inbound

Okazja rynkowa
Logo Succinct
Cena Succinct(PROVE)
$0.3956
$0.3956$0.3956
+1.25%
USD
Succinct (PROVE) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.