Sztuczna inteligencja będzie odpowiadać na pytania zadawane wyszukiwarkom. Z pozoru to niewielki krok, ale może zupełnie odmienić sposób, w jaki korzystamy z sieci.

Internauci wyszukują 10 mld haseł dziennie. Szacujemy, że połowa pytań pozostaje jednak bez odpowiedzi. To dlatego, że ludzie używają wyszukiwarek do rzeczy, dla których nie zostały one zaprojektowane. Są świetne do znalezienia strony internetowej, ale ponoszą klęskę, gdy chodzi o bardziej skomplikowane odpowiedzi - uważa Yusuf Mehdi, wiceprezes Microsoftu. Firma ogłosiła, że znalazła rozwiązanie. Już niebawem jej wyszukiwarka Bing zostanie wyposażona w sztuczną inteligencję, która w naszym imieniu przeczesze zasoby sieci i znajdzie odpowiedź na każde pytanie. A także napisze streszczenie dokumentu, e-mail do współpracowników i zaplanuje podróż poślubną.
Rozwiązanie, które dziś jest jeszcze na etapie testów, ma niebawem trafić do powszechnego użycia. Dzięki niemu nie będzie trzeba samodzielnie klikać w kolejne linki i na stronach internetowych zdobywać okruchy wiedzy. Bing zrobi to za użytkownika. A jeśli odpowiedź nie będzie wystarczająca, będzie można zadać kolejne pytanie. Z nową wyszukiwarką będzie można korespondować jak z ChatemGPT, który w ciągu ostatnich dwóch miesięcy osiągnął rekord popularności. Nieprzypadkowo - to właśnie oprogramowanie dostarczone przez amerykańską spółkę OpenAI jest odpowiedzialne za wyniki. Microsoft od kilku lat dostarcza jej swoją technologię obliczeń w chmurze oraz finansuje jej prace. W lutym ogłosił, że zainwestuje tam kolejne 10 mld dol.
Microsoft nie jest jedyny. Nad własnymi rozwiązaniami pracują też Google (jego Bard ma zostać zintegrowany z wyszukiwarką jeszcze w tym roku), a także chińskie Baidu. A silniki wyszukiwania to dopiero początek, bo wkrótce wirtualny asystent ma się pojawić również w pakiecie biurowym Microsoft. Aby zlecić sztucznej inteligencji przeszukanie sieci w naszym imieniu, nie będzie trzeba więc nawet opuszczać dokumentu, nad którym pracujemy.
Choć integracja sztucznej inteligencji z wyszukiwarkami może być sporym ułatwieniem, budzi też wiele wątpliwości. Przede wszystkim, dotyczące jakości wiedzy dostarczanej przez wyszukiwarki. Microsoft zapewnia, że jego zespoły pracują nad takimi wyzwaniami jak przeciwdziałanie dezinformacji czy wyświetlanie szkodliwych treści, ale nie wiadomo, jak AI będzie odróżniała prawdę od fałszu. Łukasz Kotkowski (rozmowa poniżej - red.), redaktor naczelny Chip.pl, jest jednym z testerów wyszukiwarki. Kiedy zapytał ją, „kto odpowiada za wojnę w Ukrainie”, Bing przekonywał, że nie ma jednoznacznej odpowiedzi. A potem zrobił przegląd opinii na ten temat, jako równorzędne stawiając poglądy, że za wojnę odpowiadają USA lub Rosja.
Pytanie budzi też kwestia praw autorskich do treści, na podstawie których Bing generuje odpowiedzi. Sztuczna inteligencja musi je pozyskać z istniejących już witryn internetowych. Aby chronić się przed nadużyciami, dostawcy treści oryginalnych i wymagających dużych nakładów pracy prawdopodobnie będą zamykać je wyłącznie dla subskrybentów. A to oznacza powstanie internetu dwóch prędkości - podczas gdy za jakościowe odpowiedzi trzeba będzie zapłacić, wyszukiwanie wygenerowane przez robota pozostanie darmowe. Choć doświadczenie z serwisów socialmediowych pokazuje, że i to tylko umownie. Bowiem walutą w internecie są dane użytkowników. A co do tych Microsoft ma wielkie plany.
ikona lupy />
Od zera do 100 mln użytkowników / Dziennik Gazeta Prawna - wydanie cyfrowe
Rob Wilk, wiceprezes Microsoft odpowiedzialny za komercjalizację produktów, pisze do reklamodawców, że możliwości nowej technologii nie są jeszcze zbadane. Zauważa jednak, że firma dzięki „głębokiemu zaangażowaniu konwersacyjnemu” zyska „bogaty wgląd w intencje użytkowników”. Tych, tak jak dziś danych uzyskiwanych z zachowania w social mediach, będzie można użyć do jeszcze bardziej precyzyjnego dostarczania reklam.
Rob Bateman, analityk GRC World Forums, uważa natomiast, że pod znakiem zapytania stoi użycie tej technologii w Unii Europejskiej. Jego zdaniem AI duże modele językowe, które są podstawą działania czatbotów, z definicji łamią postanowienia RODO. - Modele te są szkolone na ogromnych ilościach danych językowych, które często zawierają dane osobowe. Zazwyczaj te dane są pozyskiwane masowo z sieci - przypomina. - Przepisy RODO wymagają, aby organizacje informowały osobę o tym, czy przetwarzają dane osobowe na jej temat. Nie ma takiej możliwości, jeśli dane zostały pozyskane w ramach procesu szkolenia modeli - mówi w rozmowie z DGP. ©℗
rozmowa

Grozi nam zalew trolli, jakiego świat nie widział

ikona lupy />
Łukasz Kotkowski redaktor naczelny serwisu technologicznego Chip.pl / Materiały prasowe
Jak integracja modeli językowych wpłynie na sposób, w jaki szukamy informacji w internecie?
Kompletnie i bezpowrotnie. Zamiast odpowiedzi prezentowanych w sposób niemalże katalogowy, dostajemy je w formie naturalnej interakcji. Wyobraźmy sobie, że w przyszłości ten sam chatbot zostaje połączony z asystentem głosowym. Wówczas w ogóle można pominąć etap wyszukiwarki - wystarczy zadać pytanie naszemu telefonowi, zegarkowi, głośnikowi, by uzyskać odpowiedź. A to przecież tylko początek. Dziś może się wydawać, że to nic wielkiego, ale to zmiana z gatunku fundamentalnych. Jej efektów nie odczujemy oczywiście z dnia na dzień, jednak w perspektywie kilku krótkich lat kompletnie zmieni się sposób, w jaki wchodzimy w interakcję z internetem, a także z naszymi najbardziej personalnymi urządzeniami.
Czy ten kierunek niesie zagrożenia?
Internet rozleniwił nas do cna. Ostatnie lata dobitnie pokazały, że łykamy dezinformację jak pelikany, nie weryfikujemy informacji. Pierwsze zagrożenie jest więc takie, że jako społeczeństwo nadmiernie zaufamy nowej technologii i będziemy brali za dobrą monetę każdą odpowiedź, jaką ta nam podsunie.
Drugie zagrożenie, o wiele bliższe i o wiele groźniejsze, to dobre narzędzia w rękach złych ludzi. Zaprezentowany przez Microsoft nowy Bing potrafi nie tylko odpowiadać na pytanie, ale także - działając na bazie ChatGPT - generować treści. Może napisać za nas opowiadanie, list, nawet post w mediach społecznościowych. A to ułatwi życie nie tylko nam, lecz także wszelkiej maści farmom trolli i siewcom dezinformacji. Przy użyciu generatywnej SI będą mogli oni produkować więcej treści niż kiedykolwiek.
Pilnie potrzebujemy narzędzi do rozpoznawania takich sztucznie generowanych treści i ich właściwego oznaczania w internecie. W innym wypadku może nas czekać zalew trolli, jakiego świat jeszcze nie widział.
Modele biznesowe wielu firm opierają się na widoczności w wynikach wyszukiwania. Jaka czeka je przyszłość?
Mówiąc wprost: mnóstwo serwisów internetowych straci rację bytu. Możemy śmiało uznać, że witryny opierające się na odtwórczym przetwarzaniu informacji bez cienia wkładu własnego już dziś mogą się zwijać, a pracujący przy nich mediaworkerzy powinni rozglądać się za nową pracą.
Ale nie ma wątpliwości, że w wyniku tej rewolucji oberwą wszystkie serwisy internetowe. Dziś ruch płynie do nich z wyszukiwarki, ale jutro może przestać. Jestem więcej niż pewien, że jeszcze w tym roku z hukiem powróci temat kompensacji wydawcom internetowym treści przez Google, Microsoft i innych.
Szef Microsoftu zapewnia jednak, że Bing będzie odsyłał do źródeł.
Faktycznie, przy każdym zdaniu opracowanym przez bota znajduje się przypis i klikalny link, prowadzący do strony internetowej. Pytanie jednak brzmi: jak wielu ludzi w ten link kliknie? Moim zdaniem prawie nikt, bo większość odbiorców będzie w zupełności usatysfakcjonowana odpowiedzią otrzymaną od AI. A gdy ktoś będzie miał więcej pytań, to nie będzie się przeklikiwał przez linki, tylko dopyta sztuczną inteligencję, która wygeneruje mu dalsze odpowiedzi. Linkowanie to za mało, bo linkowanie za jakiś czas przestanie kogokolwiek obchodzić - będzie się liczyć otrzymana odpowiedź, a nie to, skąd ona pochodzi.
Na razie nikt nie ma dobrego pomysłu na to, co z tym fantem zrobić. Dopóki mówimy o Bingu, który ma niewielki procent udziałów rynkowych, sprawa jest niebyła; nie sądzę, by istniał serwis internetowy, dla którego ruch z Binga to być albo nie być. Ale gdy swoją SI uruchomi Google, mający ponad 90 proc. rynku? Wtedy słychać będzie płacz i zgrzytanie zębów.
Co z ochroną danych użytkowników sieci i praw do generowanych przez nich treści?
Nowy Bing na swój sposób chroni przed nadużyciami praw autorskich, ale globalnie to pytanie, na które chyba nikt jeszcze nie ma odpowiedzi. Przykład generatorów obrazów pokazał, jak ogromny jest rozstrzał opinii na ten temat w środowisku. Dla przykładu twórca Midjourney bez cienia żenady przyznał, że jego narzędzie kradnie cudze prace - i co z tego?
Brakuje nam konkretnych rozwiązań legislacyjnych, które jednoznacznie określą ramy wykorzystania cudzych dzieł przez AI. ©℗
Rozmawiała Anna Wittenberg
opinia

Tworzenie stron www straci sens

ikona lupy />
Maciej Chojnowski współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu ,Humanites roboczej ds. AI w KPRM, autor publikacji „Etyka sztucznej inteligencji. Wprowadzenie” / Materiały prasowe
W najbliższym czasie nie spodziewam się, żeby narzędzie w rodzaju ChatGPT zupełnie wyparło tradycyjne wyszukiwanie treści w internecie. Myślę, że jeszcze długo będziemy poszukiwali w sieci informacji źródłowych, wiarygodnych, a nie maszynowo zsyntetyzowanych przez AI. Będzie to więc raczej rozszerzenie, atrakcyjny dodatek do wyszukiwarek.
Oczywiście w przypadku niektórych treści (np. o charakterze rozrywkowym) ich postać w wersji stworzonej przez maszynę może nie odbiegać daleko od tych wytworzonych przez człowieka. Zawsze jednak zadaniem ludzi pozostanie kwestia sprawdzenia faktów czy odpowiedniego wstępnego przygotowania tematów. Łatwo bowiem wyobrazić sobie, że AI na potrzeby serwisów plotkarskich zaczyna generować wyssane z palca treści, które choć gwarantują poczytność, to są także źródłem lawiny pozwów ze strony zniesławionych celebrytów.
Zasadniczą zmianę widziałbym w podejściu do internetu jako takiego. Chodzi mi o przejście od traktowania internetu jako źródła informacji czy usług do myślenia o nim jako czymś w rodzaju zasobnika służącego generatywnej AI do realizacji zadań. I tu pojawiają się problemy.
Zacznijmy od kwestii praktycznych. Znamy powiedzenie, że dane to współczesny surowiec. W przypadku generatywnej AI takim surowcem byłyby treści w internecie. A jeśli zadaniem wyszukiwarki będzie nie tyle wskazanie najwłaściwszego źródła informacji na zadany temat, ile raczej wygenerowanie nowego kontentu, to tworzenie i utrzymywanie stron www zacznie stopniowo tracić sens. Dziś bowiem „karmimy” nimi Google’a, bo wiemy, że odsyła on do nich w wynikach wyszukiwania. I to nam się jakoś opłaca. W przypadku generatywnej AI treść poszczególnych stron byłaby przydatna dla AI jako zasób, ale już właściciele stron nie mieliby z tego wielkiego pożytku.
Dochodzą do tego jeszcze kwestie prawne. Nie mnie rozstrzygać, czy w przypadku generatywnych AI można mówić o jakiejś formie piractwa, ale ewidentne jest, że maszyna w jakimś stopniu pasożytuje tu na tym, co zostało uprzednio stworzone. Jest to szczególnie ważne, gdy mówimy o działaniu prowadzonym dla zysku, czyli gdy właściciel danego narzędzia czerpie profity z jego syntetyzujących możliwości. Oczywiście z czasem sztuczna inteligencja mogłaby uczyć się już na treściach wygenerowanych przez inne systemy AI. Ale one też byłyby czyjeś.
Pojawia się tu także kwestia etyki i estetyki. Czy chcemy żyć otoczeni obrazami, które do złudzenia przypominają rzeczywistość, a jednak zostały spreparowane przez maszynę? Jaki miałoby to wpływ na nasz gust i wrażliwość, a także rozumienie twórczości artystycznej? Oczywiście podobne pytania można stawiać już dziś, w dobie kultury masowej, wszechobecnego wykorzystywania CGI przy produkcji filmów oraz seriali oglądanych ciągiem. Ale wkroczenie w ten świat generatywnej sztucznej inteligencji może jeszcze bardziej podporządkować sztukę logice turbokapitalizmu. ©℗
aw