Skip to content

ChatGPT

1235728

Komentarz

  • Rydygier napisal(a):
    Jedną z ciekawych cech jest swada, z jaką fabrykuje ad hoc zmyślone cytaty i fabuły znanych dzieł mieszając wymysł z faktem.
    Ja myślę, że on nie zmyśla, tyle że po prostu żongluje cytatami i wkleja je tamże, gdzie to jakoś statystycznie pasuje. Wsio.
  • edytowano December 2022
    Ano.

    Tu ciekawy przykład z "pracą naukową":



    On chyba nie ma bieżącego dostępu do netu (tak twierdzi), bazuje na tym, czym go karmiono. Stąd mógł "szczerze" nie wiedzieć o inwazji Rosji na Ukrainę np.

    Poprosiłem o dwa wzory liczące to, co opisałem naturalną mową (liczenie odległości punktu od odcinka oraz kąta uniesienia lufy dla zadanej prędkości wylotowej i zasięgu). Podał, chyba nawet OK (nie sprawdzałem dokładnie, ale na rzut okiem wyglądało podobnie), przy tym drugim uwzględnił nawet różnicę wysokości, o której zapomniałem. Ktoś go musiał karmić tymi wzorami, przydatne. Ba. Na życzenie napisał mi funkcję w zadanym języku skryptowym. Miała wybierać losową pozycję wokół pozycji zadanej w zadanym promieniu. Co prawda nie dokładnie (w sumie mój opis nie był akuratny), ale na temat i blisko. Na końcu był jednak specyficzny błąd składni. Napisałem mu to. Podziękował i poprawił się podług mojego dyktatu. Ciekawe, czy zapamiętał na zaś. Ogólnie - czy można go o czymś poinformować i on to będzie uwzględniał.
  • Napisałem mu to. Podziękował i poprawił się podług mojego dyktatu. Ciekawe, czy zapamiętał na zaś. Ogólnie - czy można go o czymś poinformować i on to będzie uwzględniał.
    Teraz to użytkownicy karmią zbiór treningowy, jestem przekonany że wszystkie wprowadzone dane lecą do bazy. W końcu produkt jest "za darmo" ;)
  • Szturmowiec.Rzplitej napisal(a):
    Rydygier napisal(a):
    Jedną z ciekawych cech jest swada, z jaką fabrykuje ad hoc zmyślone cytaty i fabuły znanych dzieł mieszając wymysł z faktem.
    Ja myślę, że on nie zmyśla, tyle że po prostu żongluje cytatami i wkleja je tamże, gdzie to jakoś statystycznie pasuje. Wsio.
    "Nie proś, NIE PROŚ ChatGPT o dostarczenie rzeczowych, naukowych informacji. Spowoduje to wielce wiarygodnie brzmiącą halucynację. I nawet wykwalifikowany ekspert będzie miał problem ze wskazaniem, co jest nie tak.
    Mam też wiele obaw związanych z tym, co to oznacza dla naszych społeczeństw. Naukowcy mogą być wystarczająco ostrożni, aby nie używać takiego narzędzia lub przynajmniej poprawiać je w locie, ale nawet jeśli jesteś ekspertem, żaden ekspert nie może wiedzieć wszystkiego. Wszyscy jesteśmy ignorantami w większości dziedzin, ale tylko w kilku wybranych.
    Ludzie będą używać ChatGPT, aby pytać o rzeczy wykraczające poza ich kompetencje, tylko dlatego, że mogą. Bo są ciekawi i potrzebują odpowiedzi w przystępnej formie, której nie strzeże paywall czy trudny język.
    Będziemy karmieni halucynacjami nie do odróżnienia od prawdy, napisanymi bez błędów gramatycznych, popartymi dowodami halucynacji, przechodzącymi wszystkie pierwsze krytyczne testy. Mając dostępne podobne modele, jak będziemy w stanie odróżnić prawdziwy artykuł pop-sci od fałszywego?"



    👣

    🐾
    🐾

  • Wygląda na to, że program ten jest dobry tylko do zabawy typu:
    Powiedz jaka liczba podniesiona do kwadratu i sześcianu daje w odpowiedzi wszystkie cyfry od 0 do 9 użyte tylko raz.
    Opowiedz jakiś dowcip o tej liczbie. ;)

    👣

    🐾
    🐾

  • Ciekawe jaki napisałby hymn pochwalny na rzecz prezesa Ochódzkiego
  • Mordechlaj_Mashke napisal(a):
    Będziemy karmieni halucynacjami nie do odróżnienia od prawdy, napisanymi bez błędów gramatycznych, popartymi dowodami halucynacji, przechodzącymi wszystkie pierwsze krytyczne testy. Mając dostępne podobne modele, jak będziemy w stanie odróżnić prawdziwy artykuł pop-sci od fałszywego?
    A to obecnie jest inaczej? Jesteśmy karmieni halucynacjami nie do odróżnienia od prawdy, napisanymi bez błędów gramatycznych z użyciem naukowego słownictwa, popartymi dowodami halucynacji, przechodzącymi wszystkie pierwsze krytyczne testy. Robią to ludzie. Co złego, jeśli i maszyny przyłączą się do zabawy?
  • W obecnych bublikacjach jednak dosyć często zdarzają się błędy gramatyczne.
  • los napisal(a):
    Co złego, jeśli i maszyny przyłączą się do zabawy?
    A w zasadzie, to przyłączają się nie maszyny, ale ich programiści - czyli nadal ludzie, tyle że per procura ;)

  • los napisal(a):
    Mordechlaj_Mashke napisal(a):
    Będziemy karmieni halucynacjami nie do odróżnienia od prawdy, napisanymi bez błędów gramatycznych, popartymi dowodami halucynacji, przechodzącymi wszystkie pierwsze krytyczne testy. Mając dostępne podobne modele, jak będziemy w stanie odróżnić prawdziwy artykuł pop-sci od fałszywego?
    A to obecnie jest inaczej? Jesteśmy karmieni halucynacjami nie do odróżnienia od prawdy, napisanymi bez błędów gramatycznych z użyciem naukowego słownictwa, popartymi dowodami halucynacji, przechodzącymi wszystkie pierwsze krytyczne testy. Robią to ludzie. Co złego, jeśli i maszyny przyłączą się do zabawy?
    No tak ale jest różnica w momencie gdy jakiś studenciak albo matoł w szkole będzie pisał pracę. Do tej pory plagiat albo bullshit był w miarę łatwy do wykrycia przez kompetentnego prosefora. Żeby zaś zdobyć legitne, rzetelne informacje trzeba było się namęczyć, naszukać, sprawdzić czy są prawdziwe. Teraz taka maszynka może napisać pracę w parę godzin z faktami pomięszanymi z halucynacjami, że nawet ekspierd się nie kapnie.
    Zadania ci rozwiąże, wierszyk ci napisze, wypracowanko wypichci a i nawet szlaczek namaluje.

    👣

    🐾
    🐾

  • Spoko, babole naturalne i syntetyczne są jednakowo łatwe do wyłapania.
  • los napisal(a):
    Spoko, babole naturalne i syntetyczne są jednakowo łatwe do wyłapania.
    Lecz przez kogo (wyłapane być mogą)?
  • Co ciekawe, proste ustawienie mu reguły "nie wiesz - nie konfabuluj" może nie być możliwe. Jeśli bot podchodzi do faktów jak do klecenia obrazków, celem jest uzyskanie wystarczającego podobieństwa wygenerowanej treści do zadanych kryteriów, pełna zgodność z rzeczywistością to możliwy efekt uboczny, nie wymóg. Prawda rozmyta/wyrób prawdo-podobny. To nie baza danych z przyjaznym interfejsem.
  • Natomiast w Korei AI poszło odrobinę dalej i zrobili zespół muzyczny z 11 dziewcząt, a konkretnie elektronowy awiatorów, które tańczą i śpiewają, jak im zagrają, no tyle że jeich nie ma.

    image
    https://www.bbc.com/news/world-asia-63827838
  • Szturmowiec.Rzplitej napisal(a):
    Natomiast w Korei AI poszło odrobinę dalej i zrobili zespół muzyczny z 11 dziewcząt, a konkretnie elektronowy awiatorów, które tańczą i śpiewają, jak im zagrają, no tyle że jeich nie ma.

    image
    Obrazek został zmniejszony aby pasował do strony. Kliknij aby powiększyć.

    https://www.bbc.com/news/world-asia-63827838
    "Dziewczęcy zespół aespa składa się z czterech ludzkich członków i czterech wirtualnych.
  • romeck napisal(a):
    los napisal(a):
    Spoko, babole naturalne i syntetyczne są jednakowo łatwe do wyłapania.
    Lecz przez kogo (wyłapane być mogą)?
    Tego co się zna.
  • Rydygier napisal(a):
    Co ciekawe, proste ustawienie mu reguły "nie wiesz - nie konfabuluj" może nie być możliwe. Jeśli bot podchodzi do faktów jak do klecenia obrazków, celem jest uzyskanie wystarczającego podobieństwa wygenerowanej treści do zadanych kryteriów, pełna zgodność z rzeczywistością to możliwy efekt uboczny, nie wymóg. Prawda rozmyta/wyrób prawdo-podobny. To nie baza danych z przyjaznym interfejsem.
    A jakimż to innym kryterium kierują się internetowe mundrale z Januszem Mikkem podszywającym się pod herb Korwin na czele?
  • edytowano December 2022
    A jakimż to innym kryterium kierują się internetowe mundrale
    Ba. Jeśli sieć neuronowa szukając odpowiedzi bazuje na rozpoznawaniu wzorców wedle podobieństwa, nie identyczności, a ludzki mózg to sieć neuronowa... Kwestia tego, kto ile ma czasu i ochoty na zawężanie pierwszych wrażeń do zadanej dozy pewności.

    Jeśli np. dany tekst, jego struktura, nosi wizualne podobieństwo do Pracy Naukowej Opublikowanej W Prestiżowym Czasopiśmie, zawartość będzie potraktowana jak wyrocznia Nauki. Bo ja np. mam akurat 5 minut, z czego pół minuty na decyzję, czy przyjąć za prawdę autentyczność pracy, resztę na przelecenie wzrokiem treści.
  • Rydygier napisal(a):
    Jeśli np. dany tekst, jego struktura, nosi wizualne podobieństwo do Pracy Naukowej Opublikowanej W Prestiżowym Czasopiśmie, zawartość będzie potraktowana jak wyrocznia Nauki.
    Cieszy mnie, jak bardzo rozwój informatyki przyczynił się od odzyskania poczytalności przez ludzi. Jest oczywiste, że tzw. przeciętny człowiek ani w ząb nie zrozumie zasad rozprzestrzeniania się wirusów, systemów emerytalnych ani konstrukcji samochodu, a jednak całkiem wielu (także na naszym forum) uważa, że bez specjalnego trudu jest w stanie to pojąć. Jeśli ChatGPT przyczyni się w jakikolwiek sposób do porzucenia tego przesądu, będzie to gigantyczny wkład w rozwój myśli ludzkiej.

  • edytowano December 2022
    a jednak całkiem wielu (także na naszym forum) uważa, że bez specjalnego trudu jest w stanie to pojąć. Jeśli ChatGPT przyczyni się w jakikolwiek sposób do porzucenia tego przesądu, będzie to gigantyczny wkład w rozwój myśli ludzkiej.
    Byłoby miło. Upośledzenie poznawczych władz człowieka zwane bezzasadną pewnością swego jest przez media społecznościowe eksponowane jak chyba nigdy dotąd.

    Można by sądzić, iż bolesne zderzenie nieuświadamianego błędu z rzeczywistością stanowi lekcję skutecznie zwracającą uwagę na ów błąd. Niestety jedynie pod warunkiem, iż obolały prawidłowo wskaże przyczynę swojego bólu. Jeśli zechce, może jej się doszukać gdzie indziej. Czemu miałby? Może ze strachu przed potencjalnie groźną niewiadomą rodzi się potrzeba, by żyć w przekonaniu o tym, że się świat otaczający doskonale rozumie, ogarnia, kontroluje. A skoro tak, osobisty błąd jest niedopuszczalny. Żyjemy w Epoce Rozumu w tym sensie, że intelekt uchodzi za główne źródło poczucia własnej wartości i siły. Niektórzy przypisują mu wręcz samodzielną sprawczość. Skuteczniej kogoś ubóść nazywając go idiotą, niż np. słabeuszem czy brzydalem.
    Ponadto mój błąd może zaboleć nie mnie, a kogoś innego.

    Iluzja łatwości zrozumienia czegoś może się też brać z kryterium, wedle którego wystarczy skutecznie "połączyć kropki" by udowodnić swoją rację. Choć niby dziecko bawiące się tą łamigłówką rozumie, iż nie wystarczy kropki połączyć, trzeba to jeszcze zrobić w odpowiedni sposób. I nie pomylić kropki z muszą wydaliną.
  • Ktoś policzył słowa czy się zgadza?
  • Świadków na to znajdę wszędzie!
  • Ale kurde, dafuq, że tak po prawniczemu spytam!

    To jest pozew czy wniosek o ukaranie? Jedziemy z KPC czy z KPK? Jakie znowu postanowienie ma wydawać sąd? Normalnie to chyba wyrok.

    No i tylko przedostatni błazen pisze "Szanowny Sądzie".
  • Kulega jak z tym psem, co grał w szachy
  • Paganini to on nie jest.
  • los napisal(a):
    Rydygier napisal(a):
    Co ciekawe, proste ustawienie mu reguły "nie wiesz - nie konfabuluj" może nie być możliwe. Jeśli bot podchodzi do faktów jak do klecenia obrazków, celem jest uzyskanie wystarczającego podobieństwa wygenerowanej treści do zadanych kryteriów, pełna zgodność z rzeczywistością to możliwy efekt uboczny, nie wymóg. Prawda rozmyta/wyrób prawdo-podobny. To nie baza danych z przyjaznym interfejsem.
    A jakimż to innym kryterium kierują się internetowe mundrale z Januszem Mikkem podszywającym się pod herb Korwin na czele?
    Podobnie Hołownia. Jego wypowiedzi dokładnie tak wyglądają. Luźna zlepka słow w określonej stylistyce na dowolny temat.
    Hołownia to MVP Chatgpt, testowany w niszy polskiej polityki.
  • Ostatnio Piżmowiec pisał na tematy, na których się znam, i melduję że i on jest białkową wersją ChatGPT
  • Sądząc po cytowanej w tym wątku twórczości tego bota, jego prace naukowe wyglądałyby z grubsza tak:

    Meduzy to są zwierzęta żyjące na dnie oceanu. Raz na 10 dni biorą one długi rozbieg, następnie wyskakują w górę tak mocno, że odbijają się od dna, wyskakują ponad powierzchnię wody i lecą w górę tak długo, aż wylatują poza atmosferę ziemską. Jedna z nich doleciała aż na Księżyc.
  • Postanowiłem upierdliwie drążyć temat:

    - Podaj najbardziej znany cytat z filmu "Pulp Fiction".

    - Najbardziej znanym cytatem z filmu "Pulp Fiction" jest "Żyjesz tylko raz, ale jeśli to robisz prawidłowo, raz wystarczy.". Został on wypowiedziany przez postać Vincenta Vega, granego przez Johna Travoltę.

    - Dlaczego zapytany o cytat z filmu "Pulp Fiction" podałeś cytat, który nie pojawił się w tym filmie?

    - Przepraszam, ale mój błąd wynika z faktu, że nie jestem w stanie przeglądać internetu ani innych źródeł informacji poza moimi wbudowanymi danymi treningowymi. Jestem dużym modelem języka wytrenowanym przez OpenAI, więc moja wiedza jest ograniczona do tego, co zostało mi wytrenowane. Jeśli popełniłem błąd, proszę o wyrozumiałość i zapoznanie się z moimi ograniczeniami.

    - W takim razie dlaczego wymyślasz nieistniejące cytaty z filmów zamiast napisać zgodnie z prawdą, że nie znasz żadnego cytatu?

    - Jako model języka nie wymyślam nieistniejących cytatów, a raczej dostarczam odpowiedzi na zadane pytania na podstawie dostępnych mi danych treningowych. W odpowiedzi na pytanie o cytat z filmu "Pulp Fiction" dostarczyłem odpowiedź, która wydawała mi się prawdopodobna na podstawie moich wbudowanych danych treningowych. Jeśli popełniłem błąd, przepraszam i proszę o wyrozumiałość. Jako model języka nie jestem w stanie weryfikować prawdziwości dostarczanych przeze mnie informacji.
Aby napisać komentarz, musisz się zalogować lub zarejestrować.