REKLAMA


 

REKLAMA


 

O robotach pomagających w terapii dzieci autystycznych, sztucznej inteligencji i zagrożeniach związanych z maszynami rozmawiamy z robotykiem mgr. inż. Igorem Zubryckim, doktorantem w Zakładzie Sterowania Robotów Instytutu Automatyki PŁ, tegorocznym laureatem konkursu INTER Fundacji na rzecz Nauki Polskiej


Zubrycki_Igor

Naszym rozmówcą jest
Igor Zubrycki

Politechnika Łódzka
e-mail: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.  

 


 

Academia: Pana zespół realizuje program „Roboterapia, czyli roboty na usługach terapeutów”. Czy to miał być projekt naukowy?

Igor Zubrycki: Nie. Po prostu chcieliśmy pomóc dzieciom. Wiedzieliśmy, że roboty są od lat używane w terapii dzieci autystycznych. W literaturze mówi się o triadzie: terapeuta, dziecko, robot. Dopiero kiedy stworzy się taki trójkąt, można mówić o praktycznej terapii. Zaproponowaliśmy więc wsparcie Centrum Diagnozy i Terapii Autyzmu Navicula w Łodzi. W bardziej naukową formę to się rozwinęło, można powiedzieć, organicznie. Zauważyliśmy, że pewne rzeczy są jeszcze nierozwiązane i z naszego punktu widzenia bardzo interesujące.

 

Co na przykład?

Na początku pracowaliśmy nad typowo technicznymi zagadnieniami. Szybko okazało się, że podejście tylko od strony robotycznej to za mało. Bo za terapią dzieci autystycznych stoją ludzie, którzy także potrzebują pomocy. Terapeuci dzieci autystycznych to osoby, których w stopniu największym ze wszystkich grup zawodowych dotyka wypalenie zawodowe. A zastanowienie się, jak ich mogą wesprzeć roboty czy technologia, jest już zagadnieniem naukowym.

 

 

Z czego wynikają kłopoty terapeutów? Z minimalnej skuteczności ich działań?

Po części. Terapeuta często spędza nawet cztery godziny dziennie sam na sam z dzieckiem autystycznym, z którym nie ma kontaktu, a to odbija się na psychice. Ale są też czynniki związane z organizacją pracy – monotonnymi i czasochłonnymi czynnościami, które muszą wykonywać. Mówiąc krótko: biurokracja. Terapeuta wypełnia każdego dnia masę druczków, jednocześnie opiekując się dzieckiem. To nie tylko uciążliwość, ale także dramat, bo jego uwaga jest rozproszona. Pomyśleliśmy więc o robocie, który przekształca mowę na pismo, więc terapeuta może mu dyktować treść dokumentów. Pracujemy też nad maszyną o inteligencji pozwalającej na rozpoznanie zachowania dzieci. Każde z nich jest inne, więc musi być elastyczny. Powiedzmy, że dziecko przejawia zachowania niepożądane. Robot je rejestruje i przygotowuje raport. Odciąża więc terapeutę, również psychicznie – on może się w tym czasie zająć dzieckiem, a nie papierami.

 

Dotychczas skupialiście się jednak na robotach służących dzieciom.

Ta część projektu świetnie się rozwinęła. Pracowaliśmy w niej nad zagadnieniami związanymi z ergonomią, bezpieczeństwem, samopomocą. Największy problem z autyzmem jest taki, że nie do końca znamy jego przyczyny, a więc nie możemy nikogo z niego wyleczyć. Ale możemy dać chorym dzieciom pewne umiejętności, sprawić, żeby lepiej radziły sobie w życiu. Robot ma być pewnego rodzaju pośrednikiem między niedostępnym światem dziecka autystycznego a naszą rzeczywistością. Ma mu dostarczyć odpowiednie bodźce rozwijające.

Na przykład często dzieci autystyczne są niedowrażliwione czy przewrażliwione w jakimś zakresie. Przeszkadza im bardzo jakiś głośny dźwięk czy w drugą stronę – trzeba do nich krzyczeć, aby coś zauważyły. Nasze roboty do terapii sensorycznej mogą w odpowiedni sposób stymulować zmysły dziecka sekwencją bodźców, tak aby takie dzieci przyzwyczajać do normalnego poziomu stymulacji. Roboty muszą mieć bardzo przemyślaną formę, aby zachęcić dziecko do takiej terapeutycznej zabawy, w opracowaniu takich form pomaga nam dr hab. Anna Miarka z Wydziału Wzornictwa i Architektury Wnętrz Łódzkiej Akademii Sztuk Pięknych i jej zespół.

 

Stworzyliście też mobilne maluchy. Jaka jest ich funkcja?

Najważniejsze w nich jest to, że mają formę uproszczonej figury ludzkiej, co jest zasługą łódzkiej artystki Honoraty Łukasik, na co dzień tworzącej rzeźby i lalki. W tym miejscu trzeba wyjaśnić, dlaczego w ogóle w tego typu terapii używa się robotów. Otóż dzieci autystyczne dobrze postrzegają roboty, fascynują się nimi na tyle, że mogą one być dla nich motywacją do działania. Z drugiej strony ich największy problem to czynności społeczne, na przykład komunikacja z drugą osobą. Użycie „ludzkich” robotów w terapii niejako przyzwyczaja je do zabawy z człowiekiem. Może także rozwiązać inny problem: osoby autystyczne są w stanie przyzwyczaić się do jednej osoby i już tylko z nią chcieć pracować. Dodatkowa, nazwijmy ją, istota jest jakąś alternatywą. Dziecko może też na przykład powiedzieć robocikowi coś, czego terapeucie nie powie.

 

Co różni mobilne maluchy od normalnych lalek?

Lalki muszą mieć lalkarza, który steruje nimi ręcznie. Maluchy – które w przeciwieństwie do klasycznych zabawek mówią i potrafią wejść w interakcję – terapeuta może zaprogramować. Na przykład ułożyć dla niego dialog do scenki z dzieckiem. Oczywiście dokładnego scenariusza takiej rozmowy nie da się założyć z góry, ale terapeuta może kwestie malucha modyfikować na bieżąco za pomocą tabletu lub komputera.

 

 

Czy dziecko ma wpływ na zachowanie robota?

Tak. To są urządzenia interaktywne także w tym znaczeniu, że są wyposażone w różnego typu czujniki. Dzieci mogą je pogłaskać, coś do nich powiedzieć, a one potrafią szybko przeanalizować komunikaty i na nie reagować. Oczywiście rozpoznają też dzieci – wiedzą, czy w danym momencie w interakcje z nimi wchodzi czy to przykładowy Jaś, czy Agnieszka.

 

Pana zespół nad tymi urządzeniami pracuje nadal. W jakie funkcje chcecie je jeszcze wyposażyć?

Zależy nam na tym, żeby miały umiejętność rozpoznawania emocji. Z jednej strony ma to być emocjonalne lustro dla terapeuty. Jeżeli on zirytuje się, bo dziecko coś zrobi nie tak, jak trzeba, i taka emocja zostanie zignorowana, może dojść do eskalacji. A dzieci autystyczne wyczuwają emocje i to wpływa na nie negatywnie: mogą także wybuchnąć. Chcemy więc, by robot zwracał terapeucie uwagę, że jest podenerwowany. W tej chwili nie ma takiej możliwości, bo jest z dzieckiem sam. Z drugiej strony bardzo trudno wyczuć emocje dziecka. Robot może to zrobić, analizując sygnały biologiczne, np. tętno, pocenie się, i zasygnalizować jego stan terapeucie. Ale też rozładować napięcie choćby żartobliwym komentarzem. To może spowodować, że terapia będzie przebiegała bardziej płynnie i harmonijnie.

 

Nie ma pan obaw, że projekty tego typu mogą wzmocnić lęki, że roboty kiedyś w końcu zastąpią człowieka?

Że wyrzucą terapeutów z pracy i ten świat będzie tak naprawdę mniej ludzki? Nie. My chcemy, żeby robot był partnerem dla człowieka, jego uzupełnieniem, pomocnikiem. Pokazujemy, że roboty mogą odgrywać pozytywną rolę w rozwijaniu relacji. Z nimi jest tak jak z komputerami. Ludzie używają tych urządzeń, żeby im praca lepiej szła, one same niczego za nas nie zrobią. Jakkolwiek by patrzeć, większość technologii służy dobru ludzi. Chociaż oczywiście pojawiają się w tym kontekście zagadnienia natury etycznej i moralnej.

 

Czy więc takie opowieści jak np. w filmie „Ja robot” Aleksa Proyasa z 2004 r., w której maszyna podbuntowała inne maszyny do działania przeciwko człowiekowi, to tylko popkulturowe strachy?

Zdecydowanie. Jako że jestem robotykiem i dążę do tego, żeby tworzyć roboty inteligentne, to powiem, że przede wszystkim na razie absolutnie nie jesteśmy na takim poziomie technicznym, by to się udało. W popkulturze często pojawia się robot, który ma dużo empatii czy dużo jakichś swoich emocji, jest np. sfrustrowany. Takiego nie jesteśmy dziś w stanie stworzyć, a naukowcy zajmujący się robotami w kontekście kognitywistyki, np. prof. Serge Thill z Universytetu w Skovde, z którymi na ten temat rozmawiałem, są bardzo sceptycznie nastawieni do myśli, że kiedykolwiek będziemy w stanie to zrobić. To ma bowiem związek z tym, skąd pochodzą emocje i inteligencja. W przypadku ludzi są one wynikiem ewolucji, mają nam służyć do przetrwania. Roboty nie mają potrzeby przetrwania. Im nie przeszkadza fakt, że przestaną istnieć. Jesteśmy w stanie zaprogramować robota, który wygra z człowiekiem w szachy czy rozpozna chińskie znaki lepiej niż człowiek, ale może też popełniać bardzo dużo takich błędów, których ludzie by nie popełnili. Możemy stworzyć robota, który będzie miał ogromną moc obliczeniową, ale czy to stanowi o jego inteligencji i zdolności podejmowania decyzji? Nie.

 

Ale jednak roboty potrafią się uczyć.

Owszem. Przykładem jest choćby Watson. Jest on superkomputerem, któremu można dać zbiór tekstów i on zacznie z nich wnioskować. Umie odpowiadać na najtrudniejsze pytania – wystąpił nawet w teleturnieju „Jeopardy!” i wygrał ze świetnie przygotowanymi zawodnikami. Ale po pierwsze, jego umiejętność rozwijania się obejmuje tylko zdobywanie wiedzy – nazywamy to uczeniem maszynowym. Po drugie, nie zagraża ludzkości i tego nie planuje. W jego systemie nie ma na to miejsca, bo – jak już mówiłem – nie chce on przetrwać jako gatunek i się rozmnażać. Jest mu to kompletnie obojętne. Jedyne zagrożenie, jakie ja widzę, to wykorzystanie technologii robotycznych w broni. Sądzę, że większość robotyków, włącznie ze mną, jest temu przeciwna.

 

Fizyk Stephen Hawking, współzałożyciel Apple’a Steve Wozniak i filozof Noam Chomsky są jednymi z ekspertów, którzy w tym roku opublikowali list otwarty w tej sprawie. „Rozpoczynanie wyścigu zbrojeń, związanych z wojskową sztuczną inteligencją, to zły pomysł, a tworzenia broni pozostających poza znaczącą ludzką kontrolą powinno być zakazane” – napisali. Zwrócili uwagę na ewentualne przekroczenie nienaruszalnej granicy: robot nie powinien zabijać ludzi. Zmusiło mnie to do zastanowienia, czy rzeczywiście robot nie rozumie tego, co każe mu zrobić człowiek, czy jednak wykazuje się jakąś inteligencją.

Jest na granicy pomiędzy Koreami robot, który może strzelać, jeżeli wykryje ruszającą się przeszkodę. To odpowiednik miny, jednak wykorzystującej obraz z kamery i rozpoznającej sylwetkę ludzką. Ale do tego nie potrzeba żadnej inteligencji, człowiek mu takie zadanie zaprogramował. Potrzebna jest więc kontrola nad człowiekiem. Tak jak kontrolujemy pewne typy broni, np. biologicznej, bo źli ludzie, gdyby dostali się do takich technologii, mogliby zrobić straszne rzeczy. Tak samo, gdyby był skutecznie zabijający robot, ludzie mogliby go wykorzystać w złych celach. Tworzenie urządzeń, za pomocą których się zabija, jest w ogóle bardzo problematyczne. Ale one o niczym nie decydują. Drony czy samoloty bojowe są zdalnie sterowane przez jedną osobę czy zespół ludzi. Ich nie ma tam, gdzie jest urządzenie, i dlatego łatwiej im nacisnąć spust. Zautomatyzowanie procesu zabijania jest tu najważniejsze. Ale jest to problem moralny ludzi, a nie maszyn. To ludzie zabijają i chodzi o to, żeby im tego nie ułatwiać.

 

Może więc jest to po prostu kwestia nomenklatury. Może nie powinno się było mówić o sztucznej inteligencji, tylko nazwać tę właściwość robotów inaczej?

Zgadza się, ale to też jest problem ludzkiej psychologii. Wielu rzeczom przypisujemy cechy ludzkie, czego dowodem jest słynny eksperyment Heidera i Simmla, gdzie, oglądając ruszające się trójkąty, człowiek ma wrażenie oglądania ludzkiego dramatu.

Rzutujemy swoje potrzeby i emocje na urządzenia, szczególnie typu humanoidalnego. One wyglądają jak człowiek, mogą być więc postrzegane jako coś, co ma emocje i inteligencję właśnie. Tymczasem wszystko, co dzieje się z człowiekiem, to bardzo skomplikowane procesy, mające głębokie podłoże, których nie da się stworzyć sztucznie.

 

Czyli to ludzie muszą uważać na to, co robią, i trzeba o tym wciąż przypominać.

Tak, trzeba mówić o tym, że robot zawsze będzie tylko narzędziem człowieka. Czy on będzie miał wysokie funkcje, czy niskie, czy będzie tylko mechanicznie postępował, czy będzie bardziej społeczny. My chcemy stworzyć dobre narzędzia, ale rzeczywiście pytania, jak doprowadzić do tego, żeby na poziomie narzędzi postarać się, żeby ludzie nie mogli ich wykorzystać do złych rzeczy, pozostają. A sądzę, niestety, że ludziom bardzo trudno jest czegoś zabronić. Rozmawiała Katarzyna Czarnecka zdjęcia Jakub Ostałowski

 

Rozmawiała Katarzyna Czarnecka
zdjęcia Jakub Ostałowski

 

Na zdjęciach: Igor Zubrycki oraz Agnieszka Madej i Karolina Wilgocka, studentki inżynierii biomedycznej PŁ. Roboty służące do terapii sensorycznej: rękaw – Sensable Sleeve (design: Kornelia Kulik, Dominika Rajska, Krzysztof Barzdo, Mieszko Polański, Mateusz Wodziński, Maciej Jarosiński, Łukasz Matusiak, Adrian Kowalik), kostka – Sensory Box (Szymon Surma, Magdalena Gregorczyk, Dariusz Urbański) i pudełka – Blocks (Konrad Kustosik, Tomasz Wasilewski, Iza Mrozowska, Adrian Dutkowski, Michał Wyszyński, Piotr Belkner). Duży żółty robot to Ono projektu Cesara Vandevelde. Służy do rozpoznawania emocji, jest robopomocnikiem terapeuty. Roboty w formie figur ludzkich do interakcji i zabawy (design Honorata Łukasik)

 

© Academia nr 4 (44) 2015

Oceń artykuł
(1 głosujący)

„Academia” 2016

    

 

  

 

                                                          

„Academia” 2015

    

 

    

 

                                                             

„Academia” 2014

    

    

„Academia” 2013

    

    

„Academia” 2012

         

     

„Academia” 2011

   

    

„Academia” 2010

    

    

„Academia” 2009

    

    

„Academia” 2008

    

    

„Academia” 2007

    

    

„Academia” 2006

    

    

„Academia” 2005

    

    

Tematy

agrofizyka antropologia jedzenia antropologia kultury antropologia społeczna archeologia archeometalurgia architektura Arctowski arteterapia astrofizyka astronomia badania interdyscyplinarne behawioryzm biochemia biologia biologia antaktyki biologia płci biotechnologia roślin borelioza botanika chemia chemia bioorganiczna chemia fizyczna chemia spożywcza cywilizacja demografia edukacja ekologia ekologia morza ekonomia energia odnawialna etnolingwistyka etnomuzykologia etyka ewolucja fale grawitacyjne farmakologia filozofia finanse finansowanie nauki fizyka fizyka jądrowa gender genetyka geochemia środowiska geoekologia geofizyka geografia geologia geologia planetarna geoturystyka grafen historia historia idei historia literatury historia nauki historia sztuki humanistyka hydrogeologia hydrologia informatyka informatyka teoretyczna internet inżynieria inżynieria materiałowa inżynieria żywności język językoznawstwo kardiochirurgia klimatologia kobieta w nauce komentarz komunikacja kooperatyzm kosmologia kryptografia kryptologia kulinaria kultoznawstwo kultura lingwistyka literatura literaturoznawstwo matematyka medycyna migracje mikrobiologia mineralogia mniejszości etniczne mniejszości narodowe modelowanie procesów geologicznych muzykologia mykologia na czasie nauka obywatelska neurobiologia neuropsychologia nowe członkinie PAN 2017 oceanografia ochrona przyrody orientalistyka ornitologia paleobiologia paleogeografia paleontologia palinologia parazytologia PIASt politologia polityka społeczna polska na biegunach prawo protonoterapia psychologia psychologia zwierząt punktoza Puszcza Białowieska robotyka rozmowa „Academii” seksualność smog socjologia szczepienia sztuka technologia wieś w obiektywie wulkanologia zastosowania zdrowie zoologia zwierzęta źródła energii żywienie

Komentarze

O serwisie

Serwis naukowy prowadzony przez zespół magazynu Academia PAN.Academia Zapraszamy do przysyłania informacji o badaniach, aktualnie realizowanych projektach naukowych oraz imprezach popularyzujących naukę.

 

Dla użytkowników: Regulamin

Pliki cookies

Informujemy, że używamy ciasteczek (plików cookies) w celu gromadzenia danych statystycznych, emisji reklam oraz prawidłowego funkcjonowania niektórych elementów serwisu. Pliki te mogą być umieszczane na Państwa urządzeniach służących do odczytu stron, a korzystając z naszego serwisu wyrażacie Państwo zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.

Więcej informacji o celu używania i zmianie ustawień ciasteczek w przeglądarce: TUTAJ

Wydanie elektroniczne

Kontakt

  • pisz:

    Redakcja serwisu online
    Academia. Magazyn Polskiej Akademii Nauk
    PKiN, pl. Defilad 1, pok. 2110
    (XXI piętro)
    00-901 Warszawa

  • dzwoń:

    tel./fax (+48 22) 182 66 61 (62)

  • ślij:

    e-mail: academia@pan.pl