Affective computing, czyli “przetwarzanie emocjonalne”

“Element Software is proud to introduce the first artificially intelligent operating system. An intuitive entity that listens to you, understands you, and knows you. It’s not just an operating system. It’s a consciousness.”

Tymi słowami zaczyna się historia miłości między pisarzem Theodorem a systemem operacyjnym o imieniu Samantha. Futurystyczny film „Her” („Ona”) w reżyserii Spike Jonze’a wciąga i pobudza do refleksji. Czy w społeczeństwie skomputeryzowanym, w którym technologia jest naszą pierwszą myślą po przebudzeniu i ostatnią przed snem, nie powinna się ona stać także naszym przyjacielem? A może czymś więcej…? I czy możliwe jest zbudowanie systemu, który w pewien sposób nas rozumie i stara się odpowiedzieć na nasze potrzeby? 

Affecting computing, czyli przetwarzanie emocjonalne, to nauka nad rozwojem systemów i urządzeń, które są w stanie rozpoznać, zinterpretować, przetworzyć i zasymulować ludzkie emocje. Leży na pograniczu informatyki, psychologii i nauk poznawczych. Podwaliną do stworzenia tej dziedziny w formie, jaka jest obecnie znana i rozwijana, była praca Rosalind Picard pt. „Affective Computing” (MIT, 1995).

Polska nazwa powstała z połączenia dwóch słów: afektywny «uczuciowy, emocjonalny» [za: SJP] oraz tłumaczenia słowacomputing” «przetwarzanie, komputyka lub informatyka». Aby najlepiej oddać charakter prac, w końcowej formie za poprawne uznano tłumaczenie „przetwarzanie emocjonalne”.

Jednym z podejść do informatyki afektywnej jest stworzenie interfejsu człowiek-komputer (human-computer interface, HCI), gdzie urządzenie ma możliwość detekcji i właściwej reakcji na nastrój użytkownika. Istnieje wiele źródeł, z których urządzenie mogłoby czerpać informację o stanie emocjonalnym użytkownika: wyraz twarzy, postura, gesty, mowa, reakcje fizjologiczne (rytm serca, konduktywność skóry itp.).

Rozpoznawanie informacji natury emocjonalnej wymaga „wyciągnięcia” znaczących wzorców z  zebranych danych. Wykonuje się to za pomocą technik uczenia maszynowego, które są w stanie przetworzyć różne modalności, takie jak rozpoznawanie mowy, przetwarzanie języka naturalnego (natural language processing) czy detekcja mimiki twarzy.

Most pomiędzy przetwarzaniem emocjonalnym (AC) a sztuczną inteligencją (AI) zbudowany został przez Marvina Minskiego, pionera prac nad sztuczną inteligencją, który powiedział: „Emotions are [just] a special kind of thoughts”. Tym samym odniósł się do wspólnych metod, jakimi posługują się obie dziedziny.  Podejściu takiemu oponuje autorka „Affective Computing”, Rosalind Picard. Powód tego sporu leży w filozofiach powiązanych z AI i AC. Na dział sztucznej inteligencji duży wpływ wywarł kognitywizm. Zakłada on, że myśli mogą być w pełni zredukowane do postaci reguł i algorytmów, a ciało nie ma wpływu na zachowania człowieka. Rosalind Picard silnie broni się przed określeniem przetwarzania emocjonalnego mianem nauki kognitywnej lub redukcjonizmem (por.: komentarz Picard do rozdziału książki „The Encyclopedia of Human-Computer Interaction”).

Czas zatem odpowiedzieć sobie na pytanie: czym według autorki najważniejszej pracy w tej dziedzinie jest „Affective Computing”? Przede wszystkim odcina się ona od daleko idących stwierdzeń, że affective computing to nic innego jak wbudowanie ludzkich emocji do komputera. AC jest jedynie modelem emocji, pewnym ich mechanizmem, najlepszą reprezentacją złożonego fenomenu emocji za pomocą dostępnych narzędzi. Nie jest to równoznaczne z redukcjonizmem, gdyż reprezentacja nie oznacza redukcji. Redukcją nazywa się podejście mówiące „nothing but” (np. „A to nic innego jak tylko B”). Autorka broni się przed zarzutami redukcjonizmu stwierdzeniem, że wszystkie podejścia opisu emocji upraszczają: zarówno opis słowny, jak i opis liczbowy czy obrazowy. Dzięki  AC możliwy stał się jednak obiektywny opis czegoś, co do tej pory było subiektywne. W przetwarzaniu emocjonalnym otrzymuje się „obliczeniowy” i semantyczny opis emocji: dyskretny, wymiarowy, numeryczny, jednak żaden z tych opisów czy stworzonych modeli nie jest w pełni uchwyconym stanem emocjonalnym człowieka.

Ważnym celem affective computing jest zaprzestanie ignorowania ludzkich emocji w oddziaływaniu człowiek-komputer, co uczyni interfejsy bardziej przyjazne, a treści lepiej dostosowane do nastroju użytkownika. Innym jednak celem, a raczej skutkiem badań nad przetwarzaniem emocjonalnym jest wzrost świadomości co do form, jakimi komunikuje się ludzkość, co prowadzi do „ulepszenia jakości własnego człowieczeństwa”. AC stwarza bowiem narzędzia dla wyższych celów: dla lepszego zrozumienia, co czyni ludzi ludźmi.

Jednym z pierwszych zastosowań affective computing było rozwijanie przez samą Picard i jej zespół aplikacji pozwalającej na uczenie dzieci autystycznych jak rozpoznawać stany emocjonalne u innych i u siebie oraz jak na nie odpowiednio reagować. Teraz w dalszym ciągu część wysiłków badaczy zajmujących się AC poświęca się ludziom chorym psychicznie, ich diagnozowaniu i terapii.

Obecnie dużą część nakładów kieruje się na zastosowanie AC w personalizacji dostarczanych do użytkownika usług multimedialnych (filmów, reklam itp.). Na podstawie zarejestrowanego stanu emocjonalnego dokonuje się następnie weryfikacji poziomu zadowolenia klienta.

Innym zastosowaniem jest aplikacja systemów AC w systemach edukacyjnych, gdzie dąży się do jak najlepszego doboru metod nauczania i stylu przekazywanych treści do danego ucznia. Dzięki temu optymalizuje się osiągane przez niego wyniki, minimalizując wysiłek  i, co najważniejsze, stres wiążący się z pokonywaniem trudności szkolnych.

Istnieją także rozwiązania nazywane terminem „social monitoring”, które wykorzystują systemy przetwarzania afektywnego do monitorowania społeczności ludzkiej. Przykładowym zastosowaniem jest np. śledzenie twarzy kierowców przejeżdżających autostradą i wyłapywanie potencjalnych sprawców wypadków, którzy wykazują zmęczenie czy brak skupienia na drodze. Warto by było rozszerzyć te systemy do wyłapywania potencjalnych napastników czy terrorystów w dużych zgromadzeniach ludzkich.

Obecnie na rynku pojawia się coraz więcej rozwiązań, które bardzo mocno wpisują się w nurt “affective computing”. Oto kilka z nich:

  • Affectiva – technologia, która umożliwia aplikacjom używanie kamery internetowej do śledzenia uśmiechów, marszczenia brwi i bruzd na czole użytkownika, co pozwala na pomiar jego stopnia zaskoczenia, rozrywki czy zmieszania. Pozwala również na mierzenie tętna za pomocą kamery (użytkownik nie musi posiadać czujnika umieszczonego na skórze). Funkcja ta jest zrealizowana za pomocą odczytywania zmian koloru na twarzy użytkownika.
  • Emotient – serwis „w chmurze”, który mierzy ocenę emocjonalną użytkownika dotyczącą obejrzanego materiału, reklamy, produktu itp. Do opisu emocji wykorzystywana jest detekcja wyrazu twarzy, zapewniająca kompletny i dokładny pomiar dla dziewięciu kluczowych emocji, a także ocenę uwagi, zaangażowania użytkownika czy jego nastawienia (pozytywnego/negatywnego) do danego materiału.
  • Beyond Verbal – technologia analizująca emocje użytkownika na podstawie głosu rejestrowanego przez mikrofon; analiza dokonywana jest w czasie rzeczywistym.
  • Sension – aplikacja pozwalająca na rozlokowanie i śledzenie nawet do 100 punktów orientacyjnych na twarzy użytkownika; system następnie uczy się, co oznacza angażowanie poszczególnych sekcji z przestrzeni twarzy, zwracając użytkownikowi bardzo dokładną ocenę zaangażowania i poziomu zadowolenia; interakcja odbywa się w czasie rzeczywistym.
  • Elliptic Labs – bezdotykowa nawigacja i dostęp do informacji, zapewniony za pomocą ultradźwiękowej technologii (fala ultradźwiękowa jest emitowana, a następnie rejestrowane jej odbicie i powrót do ośrodka, co pozwala na śledzenie zmian położenia punktów orientacyjnych).

Inżynierowie XXI w. mają w ręku już większą część potrzebnych narzędzi, by zbudować „ludzki” interfejs użytkownika.  Potencjał ten nie jest jeszcze wykorzystany, ale wierzę, że wraz z rozwojem metod sztucznej inteligencji, uczenia maszynowego i sieci neuronowych jesteśmy w stanie zbudować prawdziwą Samanthę (wirtualną „bohaterkę” filmu „Her”) , która zintegruje wszystkie systemy komputerowe i aplikacje z jakich korzystamy, personalizując każdy aspekt naszego życia. Mając dostęp do naszych maili wyciągnie kontekst naszych słów i opisanych tam historii, prowadząc z nami dialog wyczuje w głosie nasze nastawienie, a śledząc markery na twarzy pozna nasz stan emocjonalny.

Ale czy to jest to, czego szukamy? Jak daleko powinniśmy pozwolić komputerom ingerować w nasze życie? 24-godzinna multimodalna obserwacja (m.in. za pomocą web-kamer) jest w pewnym stopniu realizacją wizji George’a Orwella z powieści „ Rok 1984”, gdzie pozbawieni zostaniemy podejmowania autonomicznych decyzji. System będzie wiedział lepiej od nas, czego nam potrzeba, ponieważ emocje mogą być reakcją naszej podświadomości. A jeśli już wszystko będzie dostosowane do naszych potrzeb- czy będzie to gwarancją ludzkiego szczęścia? Jak w każdej dziedzinie nadawania komputerom pewnej inteligencji, także affective computing nie może zostać bez naszej oceny moralności prowadzonych działań w kontekście etyki nowych technologii.

o autorze
Jagoda Głowacka
Doktorantka informatyki, analityk biznesowy w zakresie oprogramowania dla sektora medycznego, analityk danych medycznych w badaniach klinicznych i projektach komercyjnych.