Jakiś czas temu zrobiłem posta o hypie na ChatGPT (możesz znaleźć go na moim Insta).

Tam pytałem, czy hype minął i czy używam GPT na co dzień. Wtedy mówiłem, że tak średnio.

Ale to się zmieniło wraz z wypuszczeniem ChatGPT-4o (lub omni)?

Co to jest chatGPT-4o?

Omni, bo ogarnia różne media i muszę przyznać, że teraz ten GPT zaczyna mieć sens. To najnowsza wersja chatGPT wypuszczona w czerwcu 2024.

Jest niebywale dobry w interpretacji obrazu.

Ja zrobiłem jakiś randomowy wykres w Figmie, wyeksportowałem jako zwykły JPG i dałem czatowi do analizy. Szczękę zbierałem z ziemi, bo dokładnie przeanalizował i zrozumiał, co nabazgrałem na tym wykresie. Nawet potrafił dojść do jakichś wniosków pomimo tego, że specjalnie zrobiłem bezsensowny wykres.

Czy chatGPT opisze mi zdjęcie lub excel?

Nie pierwszy raz korzystam z jego analizy obrazów. Przydaje mi się w pracy właśnie do wykresów.

Podobnie można zrobić z analizą Exceli. Wrzuć plik XLS do GPT, a on wszystko przeanalizuje i dojdzie do wniosków. Ale UWAGA: wkradają się halucynacje. Możliwe, że tabelki to za dużo kontekstu dla ChatGPT i nieraz podawał mi błędną komórkę lub informacje. Nawet jak usiłowałem go poprawić, to nadal kierował mnie na ewidentny błąd.

Czasami trafia i dobrze wszystko poda, a czasami odpłynie. Więc nadal ręka człowieka się przyda do finalnej analizy.

Czy chatGPT-4o streści PDF?

Korzystam też z funkcji streszczania PDF-a. Nawet moje mocno udekorowane PDF-y jest w stanie dobrze zinterpretować. Potrafi streścić informacje i wyciągnąć najważniejsze punkty. Ale podobnie jak wyżej, warto przeglądnąć PDF-a i streszczenie, i upewnić się, że wszystko się zgadza, nim zaczniesz rozpowszechniać dalej.

Stary GPT nie miał wiedzy, co to jest Midjourney i generowanie obrazów, więc prompty też średnio mu wychodziły. Teraz jest o niebo lepiej. Mam teraz tak, że jak moje prompty w Midjourney kiepsko wychodzą, to puszczam mój pomysł najpierw przez GPT i jego prompt wrzucam do MJ.

Czy warto użyć chatGPT do promptów Midjourney?

Często jest tak, że dużo lepiej się potrafi dogadać z Midjourney i produkują razem piękne obrazy AI.

Niestety... wtedy się czuję jak asystent :( Przepycham tylko prompty z jednego AI do drugiego, bo moje są słabe... ale może właśnie w takim kierunku zmierzamy. Ludzie będą tylko przepychaczami, a AI’e będą wszystko ogarniać.

W filmiku zaprezentowanym przez OpenAI pokazują, jak osoba niedowidząca podnosi telefon z odpalonym ChatGPT i kamerką, i GPT na żywo mówi, co widzi przez obiektyw kamery, plus sprzedaje parę faktów. To jest mega. AI daje wzrok, co sprawia, że te osoby stają się bardziej niezależne. Takie coś propsuje.

Zobacz także na Instagramie