Uniwersytet Medyczny we Wrocławiu ostrzega przed fałszywymi informacjami AI
Uniwersytet Medyczny we Wrocławiu (UMW) wydał 15 września 2025 roku oficjalne oświadczenie dotyczące narastającej fali fałszywych nagrań wideo i audio tworzonych za pomocą sztucznej inteligencji. Instytucja zwraca uwagę na poważne zagrożenia płynące z dezinformacji, która może być rozpowszechniana dzięki zaawansowanym technologiom, coraz częściej wykorzystywanym w celach złośliwych. Eksperci podkreślają, że AI nie tylko potrafi generować niezrozumiałe dla ludzi języki, ale także stanowi potencjalne narzędzie w rękach cyberprzestępców, co czyni walkę z fałszywymi treściami coraz trudniejszą.

- Uniwersytet Medyczny we Wrocławiu 15 września 2025 roku ostrzega przed fałszywymi nagraniami wideo i audio generowanymi przez AI.
- Sztuczna inteligencja potrafi tworzyć własne, niezrozumiałe języki, co komplikuje kontrolę nad generowanymi treściami (rp.pl).
- AI stwarza nowe możliwości dla cyberprzestępców do tworzenia złośliwych dezinformacji (CHIP).
- Sztuczna inteligencja jest jednocześnie źródłem wartościowych informacji i potencjalnym nośnikiem niebezpiecznych fałszywych treści (mitsmr.pl).
- W obliczu tych wyzwań potrzebna jest większa czujność, edukacja i współpraca na rzecz przeciwdziałania dezinformacji.
W świetle tych wydarzeń pojawiają się nowe wyzwania dla społeczeństwa cyfrowego. Sztuczna inteligencja jest bowiem jednocześnie źródłem wartościowych informacji, jak i potencjalnym nośnikiem szkodliwej dezinformacji, dlatego wymaga się od użytkowników większej czujności i świadomego korzystania z generowanych przez nią treści.
Oświadczenie Uniwersytetu Medycznego we Wrocławiu o fałszywych materiałach AI
15 września 2025 roku Uniwersytet Medyczny we Wrocławiu oficjalnie poinformował o nasileniu się przypadków pojawiania się fałszywych nagrań wideo i audio, które zostały stworzone przy użyciu sztucznej inteligencji. W komunikacie uczelnia zwraca uwagę na rosnące ryzyko wynikające z wykorzystania AI do generowania nieprawdziwych informacji, które mogą wprowadzać w błąd opinię publiczną oraz destabilizować zaufanie do mediów i instytucji.
W oświadczeniu podkreślono szczególną potrzebę wzmożonej czujności i dokładnej weryfikacji źródeł informacji w dobie, gdy zaawansowane technologie stają się coraz bardziej dostępne dla szerokiego grona użytkowników. Uniwersytet apeluje o rozwagę oraz uświadamianie społeczeństwa na temat zagrożeń związanych z rozprzestrzenianiem się fałszywych treści generowanych przez sztuczną inteligencję. Jak podaje portal wroclaw.pl, ta apelacja ma na celu budowanie odporności informacyjnej oraz promowanie krytycznego podejścia do odbieranych komunikatów.
Technologiczne tło i zagrożenia związane z AI w kontekście dezinformacji
Analizy przeprowadzone przez specjalistów wskazują, że sztuczna inteligencja może tworzyć własne, niezrozumiałe dla człowieka języki, co stanowi dodatkowe wyzwanie w monitorowaniu i kontrolowaniu generowanych treści. Portal rp.pl opisuje przypadek tzw. Gibberlink – syntetycznego języka stworzonego przez AI, który przypomina dźwięki rodem z filmów science fiction. Badacze, w tym Mati Staniszewski, ujawnili przykłady takich komunikatów, które mogą znacznie utrudniać identyfikację i interpretację przekazów tworzonych przez maszyny.
Ponadto, jak informuje CHIP, sztuczna inteligencja otwiera nowe możliwości dla cyberprzestępców, którzy wykorzystują ją w wyjątkowo złośliwy sposób. Takie działania potęgują ryzyko rozprzestrzeniania fałszywych informacji, co może prowadzić do poważnych konsekwencji społecznych i politycznych. Artykuł CHIP podkreśla, że obecnie żyjemy w bezprecedensowych czasach, jeśli chodzi o rozwój świata wirtualnego i technologii AI, co wymaga opracowania nowych strategii ochrony przed dezinformacją oraz odpowiednich regulacji prawnych.
Rola sztucznej inteligencji w informowaniu i dezinformowaniu społeczeństwa
Jak wskazuje portal mitsmr.pl, sztuczna inteligencja pełni dwuznaczną rolę w społeczeństwie – z jednej strony jest źródłem wartościowych i wiarygodnych informacji, z drugiej zaś może służyć jako nośnik niebezpiecznych dezinformacji. Ta dwoistość stawia przed nami wyzwania związane ze zrównoważonym rozwojem i odpowiedzialnym wykorzystywaniem technologii. Informacje dostarczane przez AI odzwierciedlają świat takim, jakim jest, lecz jednocześnie mogą być manipulowane lub wykorzystywane do celów sprzecznych z prawdą, co potwierdza portal mitsmr.pl.
Oświadczenie Uniwersytetu Medycznego we Wrocławiu przypomina, jak ważne jest, byśmy wszyscy – od naukowców po zwykłych użytkowników – lepiej rozumieli, jak działa sztuczna inteligencja i potrafili rozpoznawać fałszywe treści, które może tworzyć. Tylko wspólnym wysiłkiem instytucji, mediów i społeczeństwa uda się zatrzymać falę dezinformacji i zadbać o wiarygodność informacji w cyfrowym świecie.