AGI czyli ogólna sztuczna inteligencja

Słownik pojęć dotyczących sztucznej inteligencji (AI): Podstawowe terminy, które każdy użytkownik ChatGPT powinien znać

Fala rozwoju sztucznej inteligencji przynosi ze sobą mnóstwo nowych pojęć. Ten słownik przedstawia podstawowe informacje.

Twoje pierwsze spotkanie z AI mogło mieć miejsce za sprawą ChatGPT, chatbota opartego na sztucznej inteligencji od OpenAI, który ma zdumiewającą zdolność odpowiadania na dowolne pytania. Od pisania wierszy, życiorysów po przepisy na potrawy łączone, moc ChatGPT była porównywana do funkcji autouzupełniania na sterydach.

Jednak chatboty AI stanowią tylko część krajobrazu AI. Oczywiście, fajnie jest mieć ChatGPT pomagającego w zadawaniu prac domowych lub Midjourney tworzącego fascynujące obrazy mechów na podstawie kraju pochodzenia, ale ich potencjał może całkowicie przekształcić gospodarki. Według McKinsey Global Institute, potencjał ten może wynosić 4,4 biliona dolarów rocznie dla światowej gospodarki, dlatego coraz częściej będziesz słyszeć o sztucznej inteligencji.

W miarę jak ludzie coraz bardziej przyzwyczajają się do świata splecionego z AI, pojawiają się nowe pojęcia. Dlatego, czy chcesz brzmieć mądrze w trakcie spotkań przy drinkach czy zaimponować na rozmowie o pracę, oto kilka ważnych terminów z dziedziny AI, które powinieneś znać.

Koncept sugerujący bardziej zaawansowaną wersję AI niż ta, którą znamy dzisiaj, zdolną do wykonywania zadań znacznie lepiej niż ludzie oraz rozwijania swoich własnych zdolności.

Etyka AI: Zasady mające na celu zapobieżenie szkodliwości AI wobec ludzi, osiągnięte poprzez określenie, w jaki sposób systemy AI powinny zbierać dane lub radzić sobie z uprzedzeniami.

Bezpieczeństwo AI: Interdyscyplinarne pole, które dotyczy długoterminowych skutków AI oraz możliwości jego nagłego postępu do superinteligencji mogącej stanowić zagrożenie dla ludzi.

Algorytm: Seria instrukcji, która pozwala programowi komputerowemu uczyć się i analizować dane w określony sposób, takim jak rozpoznawanie wzorców, aby potem uczyć się z nich i wykonywać zadania samodzielnie.

Dopasowanie (alignment): Dostosowywanie AI, aby lepiej osiągała pożądany wynik. Może to dotyczyć od moderowania treści do utrzymania pozytywnych interakcji z ludźmi.

Antropomorfizacja: Kiedy ludzie nadają obiektom nieludzkim cechy przypominające ludzkie. W kontekście AI może to obejmować wierzenie, że chatbot jest bardziej ludzki i świadomy, niż jest w rzeczywistości, takie jak wierzenie, że jest szczęśliwy, smutny lub nawet całkowicie odczuwający.

Sztuczna inteligencja, czyli AI: Użycie technologii do naśladowania ludzkiej inteligencji, zarówno w programach komputerowych, jak i robotach. Działa na zasadzie budowania systemów zdolnych do wykonywania zadań ludzkich.

Uprzedzenie: W odniesieniu do dużych modeli językowych, błędy wynikające z danych treningowych. Może to prowadzić do fałszywego przypisywania pewnych cech do określonych ras lub grup na podstawie stereotypów.

Chatbot: Program komunikujący się z ludźmi za pomocą tekstu, symulujący ludzki język.

ChatGPT: Chatbot AI rozwijany przez OpenAI, korzystający z technologii dużego modelu językowego.

Obliczenia poznawcze: Inna nazwa dla sztucznej inteligencji.

Augmentacja danych: Przekształcanie istniejących danych lub dodawanie bardziej zróżnicowanego zestawu danych do treningu AI.

Głębokie uczenie (deep learning): Metoda AI i poddziedzina uczenia maszynowego, która wykorzystuje wiele parametrów do rozpoznawania złożonych wzorców w obrazach, dźwięku i tekście. Proces ten jest inspirowany pracą ludzkiego mózgu i wykorzystuje sztuczne sieci neuronowe do tworzenia wzorców.

Dyfuzja: Metoda uczenia maszynowego, która bierze istniejący zestaw danych, takie jak zdjęcie, i dodaje losowy szum. Modele dyfuzyjne uczą swoje sieci przekształcania lub odtwarzania tego zdjęcia.

Zachowanie emergentne: Kiedy model AI wykazuje niezamierzone zdolności.

Uczenie end-to-end, czyli E2E: Proces głębokiego uczenia maszynowego, w którym model jest instruowany, aby wykonać zadanie od początku do końca. Nie jest szkolony, aby realizować zadanie sekwencyjnie, ale uczy się od wejść i rozwiązuje je jednocześnie.

Rozważania etyczne: Świadomość implikacji etycznych AI i kwestii związanych z prywatnością, wykorzystaniem danych, uczciwością, nadużyciem oraz innymi zagadnieniami związanymi z bezpieczeństwem.

Foom: Inaczej nazywane szybkim wzrostem lub gwałtownym wzrostem. Koncept, że jeśli ktoś zbuduje AGI, to może być już za późno, aby uratować ludzkość.

Generatywne sieci przeciwników, czyli GANs: Generatywny model AI składający się z dwóch sieci neuronowych generujących nowe dane: generatora i dyskryminatora. Generator tworzy nowe treści, a dyskryminator sprawdza, czy są autentyczne.

Generatywna sztuczna inteligencja: Technologia generowania treści, która używa AI do tworzenia tekstu, wideo, kodu komputerowego lub obrazów. AI jest karmiona dużymi ilościami danych treningowych, znajduje wzorce i generuje własne nowatorskie odpowiedzi, które czasami mogą być podobne do materiału źródłowego.

Google Bard: Chatbot AI firmy Google, który działa podobnie do ChatGPT, ale czerpie informacje z bieżącej sieci, podczas gdy ChatGPT ogranicza się do danych do 2021 roku i nie jest połączony z internetem.

Barierki: Zasady i ograniczenia narzucane modelom AI, aby zapewnić odpowiedzialne zarządzanie danymi i zapobiec tworzeniu niepokojącej treści.

Halucynacja: Nieprawidłowa odpowiedź AI. Może to obejmować produkcję przez AI odpowiedzi, które są niepoprawne, ale brzmią pewnie, jakby były poprawne. Powody tego nie są do końca znane. Na przykład, pytając chatbota AI, “Kiedy Leonardo da Vinci namalował Mona Lisę?”, może on odpowiedzieć niepoprawnie stwierdzając, że “Leonardo da Vinci namalował Monę Lisę w 1815 roku”, co jest 300 lat po faktycznym namalowaniu.

Duży model językowy, czyli LLM: Model AI szkolony na masowych ilościach danych tekstowych, aby zrozumieć język i generować nową treść w ludzkim języku.

Uczenie maszynowe, czyli ML: Składnik AI, który pozwala komputerom uczyć się i generować lepsze wyniki prognoz bez konieczności programowania. Może być łączone z zestawami treningowymi do generowania nowych treści.

Microsoft Bing: Wyszukiwarka firmy Microsoft, która teraz może używać technologii napędzającej ChatGPT do dostarczania wyników wyszukiwania opartych na AI. Jest podobna do Google Bard, gdyż jest połączona z internetem.

AI wielomodalna: Typ AI, który może przetwarzać różne rodzaje wejść, w tym tekst, obrazy, filmy i mowę.

Przetwarzanie języka naturalnego: Dziedzina AI wykorzystująca uczenie maszynowe i głębokie uczenie się do nadania komputerom zdolności do zrozumienia ludzkiego języka, często za pomocą algorytmów uczenia się, modeli statystycznych i zasad językowych.

Sieć neuronowa: Model obliczeniowy przypominający strukturę mózgu ludzkiego i służący do rozpoznawania wzorców w danych. Składa się z połączonych węzłów, czyli neuronów, które mogą rozpoznawać wzorce i uczyć się w czasie.

Przestraszanie się (overfitting): Błąd w uczeniu maszynowym, w którym model działa zbyt blisko danych treningowych i może identyfikować jedynie konkretne przykłady w tych danych, ale nie nowe dane.

Parametry: Wartości liczbowe nadające LLM strukturę i zachowanie, umożliwiające mu tworzenie prognoz.

Łańcuchowanie promptów: Zdolność AI do korzystania z informacji z poprzednich interakcji, aby kształtować przyszłe odpowiedzi.

Stochastyczny papug (stochastic parrot): Analogia do LLM, która ilustruje, że oprogramowanie nie ma większego zrozumienia znaczenia za językiem lub światem, niezależnie od tego, jak przekonująco brzmi wynik. Termin ten odnosi się do sposobu, w jaki papuga potrafi naśladować ludzkie słowa bez zrozumienia ich znaczenia.

Przenoszenie stylu (style transfer): Zdolność dostosowania stylu jednego obrazu do treści drugiego, pozwalająca na interpretację cech wizualnych jednego obrazu i zastosowanie ich w innym, na przykład zabranie autoportretu Rembrandta i odtworzenie go w stylu Picassa.

Temperatura: Parametry ustawione do kontrolowania stopnia losowości wyników modelu językowego. Wyższa temperatura oznacza, że model podejmuje większe ryzyko.

Generowanie obrazów z tekstu (text-to-image generation): Tworzenie obrazów na podstawie opisów tekstowych.

Dane treningowe: Zbiory danych używane do nauki modeli AI, w tym tekst, obrazy, kod lub dane.

Model transformatora: Architektura sieci neuronowej i model głębokiego uczenia się, który uczy się kontekstu, śledząc relacje w danych, takich jak w zdaniach lub fragmentach obrazów. Zamiast analizowania zdania po jednym słowie, może spojrzeć na całe zdanie i zrozumieć kontekst.

Test Turinga: Nazwany na cześć znanego matematyka i informatyka Alana Turinga, testuje zdolność maszyny do zachowywania się jak człowiek. Maszyna przechodzi test, jeśli człowiek nie może odróżnić odpowiedzi maszyny od odpowiedzi innego człowieka.

Słaba AI, znana również jako wąska AI: AI skupiona na określonym zadaniu i niezdolna do nauki poza swoim zakresem umiejętności. Większość dzisiejszych AI to słaba AI.

Uczenie zero-shot: Test, w którym model musi wykonać zadanie bez dostarczenia mu odpowiednich danych treningowych. Przykładem może być rozpoznawanie lwa, mając jedynie dane treningowe dotyczące tygrysów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Previous Post

Wady i zalety farm fotowoltaicznych

Next Post

Jakie są etapy budowy farmy fotowoltaicznej?

Related Posts