Trawestując powiedzenie pewnego badacza AI, pełna emocjonalna i moralna autonomia sztucznych obiektów objawiłaby się dopiero wtedy, gdyby robot, który dostał polecenie pójścia do pracy, postanowił spędzić dzień na plaży. Gdyby to jednak zrobił, natychmiast uznalibyśmy go za wadliwie działający i oddali do przeprogramowania. Wcale nie zależy nam, by nasi „wirtualni towarzysze” mieli własne emocje i własne moralne sumienie. Wbrew testowi Turinga nie tworzymy ich na nasze podobieństwo. Chodzi nam tylko o to, by sprawnie udawali, że się nami przejmują, rozwiązując problemy, z którymi sami nie potrafimy sobie poradzić. A już na pewno nie powinniśmy dać się im kochać.

  • legolas@fedit.pl
    link
    fedilink
    Polski
    arrow-up
    2
    ·
    edit-2
    6 months ago

    Ciekawe. Rzeczywiście, jest masa aktywności, które są typowo ludzkie. Nawet zwykłe spanie. Nigdy nie każemy robotowi spać, co najwyżej wejść w tryb czuwania jesli wyjątkowo nie znajdziemy dla niego akurat jakiejś pracy którą mógłby wykonać.

    Ale test Turinga sprawdza tylko czy robot jest zdolny do myślenia “po ludzku”. Nawet jeśli przyszłe roboty nie będą potrafiły przejść podobnych testów to ten fakt nie sprawia nie musimy się obawiać o to że mogą być dla nas zagrożeniem. Robot “myśli” na swój sposób i to wystarczy żeby sformułować “myśli” prowadzące ostatecznie do naszego końca. Nam chodzi o to żeby roboty były najwydaniejsze, co prowadzi do próby maksymalizacji ich inteligencji. Celem nie jest stworzenie kopii człowieka. Roboty będą miały swój świat.

    Tak więc średnie pocieszenie.

    • Kaya@fedit.plOP
      link
      fedilink
      Polski
      arrow-up
      2
      ·
      6 months ago

      Średnie. Jest też druga strona medalu, transhumanizm. Udoskonalać człowieka. Na małą skalę już sie dzieje i jest pomocne, ale…To już inny obszar do dyskusji.