Wybierz język

Polish

Down Icon

Wybierz kraj

Portugal

Down Icon

<![CDATA[ IA Insustentável: a inteligência artificial está a desperdiçar o nosso tempo ]]>

<![CDATA[ IA Insustentável: a inteligência artificial está a desperdiçar o nosso tempo ]]>

Było oczywiste, że to się wydarzy. Jednak nie tylko nie spodziewaliśmy się, że stanie się to tak szybko, ale jeszcze mniej zdawaliśmy sobie sprawę, że będzie to tak realne i intensywne.

Sztuczna inteligencja rozwija się w absurdalnie szybkim tempie i wkroczyła w niemal każdy aspekt naszego życia z transformacyjną żarłocznością, której trudno dotrzymać. Pochłania wszystko i wszystkich, stając się zagrożeniem na wielu poziomach, a jedynym powodem, dla którego nie odbiera nam pracy, jest to, że w przeważającej mierze myśli, ale niewiele.

Od 2023 roku, wraz z popularyzacją narzędzi generatywnych, takich jak ChatGPT, Copilot i Gemini, obecność sztucznej inteligencji rozszerzyła się na wiele obszarów, w tym edukację, marketing, media i opiekę zdrowotną. Jej rozwój był tak szybki, że w 2025 roku Komisja Europejska zatwierdziła ustawę o sztucznej inteligencji (AI Act), pierwsze europejskie rozporządzenie dotyczące sztucznej inteligencji, co świadczy o tym, że technologia ta z obietnicy stała się centralnym zagadnieniem politycznym i etycznym. Jest ona tak żarłoczna w swojej zdolności do zmian, jak i żarłocznie ambitna, rozszerzając swój zakres poza to, do czego jest faktycznie zdolna. I popełnia błędy. Sprawia, że ​​czujemy frustrację i myślimy, że ostatecznie nie jest aż tak użyteczna.

Często zapominamy, że aby korzystać z narzędzi sztucznej inteligencji, w większości sytuacji i na większości platform musimy być w stanie wygenerować zestaw szczegółowych, obiektywnych instrukcji, które pokierują procesem. To ćwiczenie w myśleniu strukturalnym, a nie tylko sposób na zwiększenie produktywności. Aby to osiągnąć, musimy również zrozumieć i nauczyć się, jak działa algorytm, nawet inteligentny.

Kiedy nie znamy tematów, którymi zajmuje się sztuczna inteligencja, dodatkowym wyzwaniem jest weryfikacja, ponieważ udowodniono, że kiedy nie wie, wymyśla. Kiedy nie rozumie, interpretuje swobodnie i dostarcza wyniki dalekie od początkowych instrukcji. Mogłoby to być przyjemne, gdyby nie pochłaniało czasami więcej czasu niż faktycznie poświęcilibyśmy na wykonanie zadania. Badanie Uniwersytetu Stanforda wykazało, że 40% specjalistów w USA marnuje około dwóch godzin na poprawianie każdego błędu w treściach generowanych przez sztuczną inteligencję. I pomimo podwojenia wykorzystania sztucznej inteligencji od 2023 roku, raport MIT wskazuje, że 95% firm nie dostrzega realnego wzrostu efektywności.

W tym kontekście korzystanie ze sztucznej inteligencji ma w sobie pewien rodzaj narzucania, często napędzany strachem przed pozostaniem w tyle, a nie rzeczywistą użytecznością technologii. Rzadko kiedy myśli się o nauczaniu tego narzędzia lub o tym, jak tworzyć instrukcje w spójny i ustandaryzowany sposób. Wszyscy korzystają z niego tak, jak (myślą, że) potrafią, a potem wyniki są kopiowane bez weryfikacji, a nasze życie staje się spotkaniem, które mogłoby być e-mailem. Jak na ironię, nawet ten e-mail nie jest jasny. A ponieważ nie był, mamy więcej pracy.

Badania te pokazują również, że sposób, w jaki postrzegamy sztuczną inteligencję, definiuje jej wpływ: jeśli używamy jej do wspierania ludzkiego myślenia, wspomaga ona badania naukowe i kreatywność; jeśli traktujemy ją jako zamiennik, rezultat jest inny. Powoduje to szum.

W Portugalii ta tendencja się powtarza: szkoły i uniwersytety eksperymentują z generatywną sztuczną inteligencją w kontekście nauczania i oceny, ale bez spójnych wytycznych, a wiele firm integruje zautomatyzowane narzędzia, nie zapewniając swoim pracownikom szkoleń cyfrowych.

Czasami próbuję sprawdzić swoją teorię, że pomimo tak wielkiego postępu, jesteśmy, lub chcemy być, w procesie regresu. Wierzę, że biorąc pod uwagę tempo współczesnego świata, jedyną opcją jest powrót do przeszłości.

Internet narodził się jako miejsce demokratyzacji wszystkiego, przestrzeń, w której każdy miał głos. Ta obietnica zbladła. Dziś, między algorytmami a sztuczną inteligencją, nie wiemy, kto pisze, kto mówi, a kto manipuluje narracjami. Mówią jak my, czasem lepiej niż my, wyrażając się elokwentnie i zyskując wiarygodność. Nie wiemy, kim są, jakie mają cele, czego chcą. Wszystko stało się niejasne i w tej mgle nie wiemy, komu możemy zaufać. Zautomatyzowana dezinformacja, napędzana sztuczną inteligencją, jest już jednym z największych zagrożeń zidentyfikowanych przez Światowe Forum Ekonomiczne na rok 2025. Wygląda to jak dantejski scenariusz, który tak dobrze przedstawiają seriale science fiction i który rzeczywistość zaczyna dokumentować. Komu możemy zaufać? E-mailowi ​​napisanemu przez sztuczną inteligencję czy wiadomości, którą właśnie wysłał kolega? Gdzie jedno się zaczyna, a drugie kończy? Pośród tej niejasności, prawdziwe pytanie być może nie brzmi, czy sztuczna inteligencja jest użyteczna, czy bezużyteczna, ale czy oddamy jej miejsce w naszym myśleniu.

sabado

sabado

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow