Analityka Z Social MediaSocial Media

Granie w System





Bardziej niż wiele aspektów technologii analizy danych podlega bardzo silnej sile: ludzkiej naturze. Ze swej natury dane ujawniają zwycięzców i przegranych, a każdy oczywiście chce wygrać. Sprawienie, by Twój produkt, kandydat polityczny lub marka wydawały się bardziej popularne niż jest to bardzo opłacalne. Media społecznościowe oferują niezliczone możliwości stworzenia tej fałszywej popularności. Jednym z przykładów jest zaprzyjaźnienie nowych i nieznanych osób i "spamowanie" ich ofertami. Ta rzeczywistość może bardzo łatwo doprowadzić ludzi do próby cieniowania wyników na ich korzyść, a nawet do oszukiwania systemu. Mówiąc bardziej ogólnie, każda udana metryka może zostać celowo lub nieumyślnie wypaczona przez nagradzanie złego zachowania. Po tym, jak dowiemy się, jak marketing i PR korzystają z mediów społecznościowych i danych w mediach społecznościowych, powinniśmy spędzić trochę czasu w Internecie świat cieni robotów. Tu opisano ciemną stronę: nadużycie narzędzi i wskaźników opisanych wcześniej. Dotknęliśmy wielu pojęć z poprzednich części. Jednak są one teraz używane do celowego wypaczania wskaźników. Tutaj szczerze patrzymy na wiele sposobów, w jakie ludzie mogą "grać w system" za pomocą mediów społecznościowych i analizy danych, ponieważ często trzeba zarządzać dla ludzi charakter, a także liczby, które odniosą sukces w tej dziedzinie.

Spam i roboty

Prawo niezamierzonych konsekwencji rządzi każdym systemem. Na przykład, kiedy e-mail nagle umożliwił darmową komunikację z dużą liczbą nieznajomych, natychmiast doprowadził do problemu niechcianego komercyjnego e-maila, lepiej znanego jako spam. Gdy komputery mogły komunikować się otwarcie za pośrednictwem sieci, odradzały się wirusy i konie trojańskie. A teraz, kiedy żyjemy w społeczeństwie kanałów mediów społecznościowych i informacji na żądanie, ten świat został zalany fałszywymi, a nawet fałszywymi informacjami. Spam przerodził się w spam społecznościowy. Wirusy i niechciane wiadomości e-mail działały dobrze ze względu na możliwość łatwego rozprzestrzeniania się w sieciach cyfrowych. Ale media społecznościowe oferowały coś nowego: otwartość. Każdy może publikować informacje, które mogą zniekształcać rzeczywistość lub przynosić korzyści komuś innemu. Spam społecznościowy przekształcony w boty społecznościowe, algorytmy, które pozwalają ludziom wierzyć, że są ludźmi. Podczas gdy sieci społecznościowe, takie jak Facebook czy Twitter, podejmują działania naprawcze w celu przeciwdziałania tym oszustwom, wykrywanie jest dalekie od ideału, a ponadto jest to iteracyjny proces, który jest stale testowany ze wszystkich stron. W ciągu ostatnich kilku części argumentowaliśmy, że informacje w mediach społecznościowych mogą być wydobywane z danych, aby pomóc w podejmowaniu decyzji biznesowych. Jednak gdy pojawią się fałszywe lub nawet fałszywe informacje, które mogą przedostać się do twoich danych, wpłynie to na jakość i dokładność twoich pomiarów, a zatem na twoją decyzję. W jaki sposób? Załóżmy, że analizujesz produkty konkurencji, monitorując dyskusję publiczną. Prowadzone są dyskusje z nieuczciwych źródeł mające na celu sprzedaż szarego produktu. To zwiększa ilość dyskusji na temat tego produktu. Jeśli nie będziesz ostrożny, możesz pomyśleć, że te sztucznie zawyżone dyskusje wykazują większe zainteresowanie publiczne produktem tego konkurenta. Czasami celem może być zniekształcenie pomiarów w celu wprowadzenia kogoś w błąd. Google często musi zmieniać algorytm, aby nie padać ofiarą ekspertów optymalizacji wyszukiwarek (SEO), którzy próbują wprowadzić w błąd algorytm dla swoich celów. Ta chęć wpływania na algorytm rankingu Google rozwiała wielomilionową branżę SEO. Zautomatyzowany wpływ może doprowadzić do zmiany opinii publicznej. W jaki sposób? Poprzez sockpuppety, tj. zautomatyzowane fałszywe tożsamości online. Roboty te na przykład publikują i omawiają historie na Twitterze. Jednak według 55% dziennikarzy z Twittera może znaleźć źródła swoich opowiadań. Aby szybko i skutecznie przesiać codzienny bałagan informacji w mediach internetowych, dziennikarze używają systemów pomiarowych. Systemy te pomagają im znaleźć najciekawsze, najlepiej trendy historie. Z kolei boty próbują wpłynąć na te pomiary, aby wpłynąć na dziennikarza, a tym samym na opinię publiczną. W obu przypadkach, bez względu na to, czy celem botów społecznościowych jest celowe zakłócanie naszych pomiarów, manipulowanie, czy tylko wykorzystywanie sieci do rozpowszechniania niezamówionych lub fałszywych informacji, ważne jest wykrycie manipulacji, fałszywego lub oszukańczego zachowania. Ich usunięcie ma kluczowe znaczenie w tworzeniu dokładnych pomiarów. Podkreślamy znaczenie rozpoczęcia każdego procesu pomiarowego od właściwego pytania. Podobnie znajomość odpowiednich motywacji do oszustwa lub manipulacji pomoże ci dostrzec zachowanie, które może prowadzić do wypaczenia. W poniższych sekcjach zobaczymy kilka głównych motywacji, od kołyszących się opinii politycznych po sztucznie podnoszące oceny popularności. Ponadto przyjrzymy się najczęstszym sposobom wypaczania pomiarów w mediach społecznościowych za pomocą zautomatyzowanych środków i omówimy sposoby ich zwalczania. Najczęstsze cele oszukańczych lub manipulacyjnych działań są następujące:

•  Aby osiągnąć zasięg i szerzyć wiadomość szerzej
•  Aby oczernić przeciwników fałszywymi informacjami
•  Aby wpływać na innych i / lub tworzyć zamiar zakupu produktów lub usług
•  Aby ukryć informacje, które mogą być szkodliwe z politycznego lub handlowego punktu widzenia

Między manipulacją a oszustwem istnieje cienka granica. Korzystanie ze środków automatycznych i nieujawnianie ich jest zdecydowanie nieuczciwe. Oszukiwanie w dowolnym systemie wydaje się nieuniknione. Znalezienie tych, którzy oszukują i uniknięcie znalezienia pozostanie ciągłą walką w korzystaniu z danych online i społecznościowych. Przeciwdziałanie nieuczciwemu wykorzystywaniu danych stworzyło już dla siebie dyscyplinę, której wysiłki mogą z czasem konkurować z wartym miliardy dolarów przemysłem bezpieczeństwa online, który powstał w odpowiedzi na zagrożenia, takie jak wirusy komputerowe i spam e-mail.

Tworzenie zasięgu

Czy poznałeś Diarny Smitrh? Ostatnio skontaktowała się ze mną za pośrednictwem portalu społecznościowego. Miała piękną twarz i poprosiła mnie o odwiedzenie jej strony internetowej zawierającej treści dla dorosłych. Kim ona jest w prawdziwym życiu? Po pierwsze, Diarny najprawdopodobniej wcale nie jest dziewczyną. Ona nie jest nawet człowiekiem. Diarny to robot, znany również jako "bot". Jest algorytmem, który łączy mniej lub bardziej przypadkowe osoby na LinkedIn w celu generowania ruchu na stronie z treściami dla dorosłych. Ale nie tylko to, Diarny próbuje się z tobą połączyć, aby dowiedzieć się więcej o twoich połączeniach i móc się z nimi połączyć. Czy to możliwe, że połączysz się z botem? Nie! Badania wykazały, że 16% z nas zaakceptowałoby prośbę nieznanego przyjaciela. Według Yazana Boshmafa w przypadku botów takich jak Diarny wskaźnik akceptacji wzrasta nawet do 22%. Co więcej, współczynnik akceptacji można poprawić, jeśli nazwa brzmi znajomo. Nic dziwnego, że "Diarny Smitrh" ma nazwę, która wygląda jak jeden wielki błąd w pisowni. Nazwa ma brzmieć znajomo, mimo że sama pisownia spowoduje zero wyników w wyszukiwarce. Ale nawet jeśli nie padniesz ofiarą i nie przyjmiesz zaproszenia Diarny, przynajmniej oszukała cię, by spojrzeć na jej wiadomość. Jednym słowem, stworzyła zasięg niemal bez żadnych kosztów. Dla Diarny koszt połączenia z jednym lub tysiącami użytkowników sieci społecznościowej jest prawie taki sam.

Age of the Bots: We Are Minority

Diarny Smitrh nie jest sam. Ona, algorytm, jest częścią większości: 61,5% całego ruchu internetowego jest nieludzkia, zgodnie z badaniem opublikowanym w 2013 r. przez Incapsula, firmę zajmującą się bezpieczeństwem w Internecie. Z pewnością duża część tego ruchu pochodzi ze scraperów lub wyszukiwarek, ale coraz częściej od botów takich jak Diarny Smitrh. Życie w sieciach społecznościowych czasami wydaje się przeciwieństwem bycia połączonym. Marki, rządy, organizacje i spamerzy wszyscy chcieliby nawiązać z Tobą kontakt lub zachęcić Cię do odpowiedzi. Osoby odwiedzające jej profil widzą link do jej strony internetowej i mogą przeczytać więcej informacji zaprojektowanych w celu stworzenia potencjalnej oferty. W tym przypadku Diarny jest spamerem, który właśnie zaczął towarzysko. Korzystała z sieci społecznościowych, nie korzystając w rzeczywistości z zaufania i łączności. Popełniła ten sam błąd, który popełnił wielu marketerów na początku sieci społecznościowych. Po prostu wykorzystała go jako inny kanał. Ale zasięg niekoniecznie tworzy intencję. Współczynniki konwersji spamerów są bardzo niskie. Spamer taki jak Diarny musiałby dotrzeć do wszystkich w LA, aby dostać się do pojedynczej konwersji. Diarny jest zatem czymś, co nazywamy botem spamowym pierwszej generacji. Później omówimy ewolucję botów drugiej generacji, które nie dążą do osiągnięcia celu, ale mają na celu wpływ i tworzenie intencji.

Jak rozpoznać boty

Istnieje wiele botów, takich jak Diarny Smitrh. Jeśli jesteś na Twitterze, możesz łatwo wykonać autotest. Firmy takie jak StatusPeople lub PeekYou oferują usługi, aby dowiedzieć się, kto jest botem. Według Michaela Husseya (@HusseyMichael), przeciętny użytkownik Twittera, taki jak ty i ja, ma od 40% do 65% robotów jako obserwujących. Boty takie jak Diarny, a więc boty pierwszej generacji, które używają mediów społecznościowych do rozpowszechniania wiadomości, są łatwe do wykrycia. Po wykryciu usługi takie jak Twitter i Facebook usuną swoje profile. Ale przy każdym usunięciu twórca bota uczy się omijać właśnie ten problem, który doprowadził do wykrycia, tworząc pętlę uczenia się, która prowadzi do coraz lepszych botów. Typowe sposoby wykrywania botów pochodzą z tego, w jaki sposób wykrywalibyśmy ataki robotów w sieci. Osoba, która jest bardzo aktywna lub aktywna w seriach w sposób, w jaki człowiek nie powinien być, jest botem. Zatem jeśli Diarny Smitrh spróbuje dotrzeć do kilkuset osób w ciągu kilku minut, to jasne, że jest botem. Innym wskaźnikiem botów jest wyjątkowo regularne zachowanie:

Regularne wiadomości

Ktoś, kto dociera do innych osób w sieci 24/7 bez snu i weekendów, jest prawdopodobnie botem. A przy tak niskich współczynnikach konwersji, jak opisano, Diarny Smitrh będzie musiał zrobić dokładnie to; w przeciwnym razie nie stanie się skuteczna.

Podejrzane zachowanie

Fałszywe konta w mediach społecznościowych często nie wykazują autentycznej aktywności. Jeśli tweep używa w kółko tylko jednego hashtaga lub wysyła tylko jeden link do kliknięcia, najprawdopodobniej jest to bot. Ale programowi łatwo jest "randomizować" aktywność bota i zapewnić to że bot śpi lub ma weekendy. Zachowanie osobiste można również dość łatwo zaprogramować. Bot może pobrać losowy kanał RSS z dowolnego miejsca w Internecie. To nie jest jego treść i stanowi naruszenie praw autorskich, ale chroni bot przed wykryciem. Algorytm analizujący zachowanie w celu wykrycia botów uzna, że jest to normalna osoba. Mniej łatwe do pokonania są dane stworzenia. Każdy bot będzie musiał zostać utworzony w pewnym momencie.

Najnowsze dane dołączenia

We wczesnych czasach komercyjnego "bot botu" boty były raczej młodsze i nowe, ale "działały" na wyższym poziomie. Dlatego bardzo młodsze konta, które już prowadzą wiele rozmów, mogą być oznaką robota.

Podobna data przystąpienia

Często fałszywe tweepy są tworzone "partiami". Na przykład europejska sieć społecznościowa powiedziała nam, że w pewnym momencie gwałtownie wzrosła liczba kont z Indii. "W ciągu kilku dni mieliśmy nowe aplikacje, które zgromadziły do 30% ogólnej liczby użytkowników z Indii", powiedział jeden z menedżerów, który nie chciał zostać wymieniony. Ale te pomiary wykrywania można łatwo pokonać. Potrzebne byłyby okresy oczekiwania na aktywację botów. Najlepszym sposobem na wykrycie bota są jego znajomi, innymi słowy, analiza jego topologii sieci. Boty są samotne. Na koniec, kto chce gadającego billboardu jako przyjaciela? Użyjmy Twittera jako przykładu. Każdy tweep ma sieć utworzoną przez jego indywidualnych przyjaciół i obserwujących. Topologia tej osobistej sieci może być używana jako rodzaj odcisku palca dla tej osoby. Bot jednak na początku nie będzie mógł połączyć się z innymi ludźmi. Większość prawdziwych ludzi nie zaprzyjaźniłaby się z kimś, kto wydaje się nie mieć żadnych powiązań i który nie jest zbyt dobrze znany. Zwykle społeczny "nowicjusz" łączyłby się najpierw ze swoimi najbliższymi przyjaciółmi. I ci przyjaciele odpowiedzą na żądanie połączenia w odwrotnej kolejności. Bot nie ma jednak najbliższych przyjaciół oprócz innych botów, które odpowiedzą na prośbę o połączenie. Następnie, gdy bot uzyska określony poziom łączności, wygląda na wiarygodny dla innych i dopiero wtedy spróbuje infiltrować sieć, powoli łącząc się z innymi częściami sieci. Takie zachowanie można wykryć, analizując dany klaster połączeń sieci społecznościowych. Sieć składa się z osób często nazywanych "węzłami", a połączenia między tymi węzłami są często nazywane "krawędziami". Dwa środki są szczególnie pomocne w wykrywaniu sieci botów na wczesnym etapie:

Gęstość w podgrupie

Gęstość mierzy ilość wzajemnych połączeń sieci. Porównuje istniejącą liczbę połączeń (zwanych również krawędziami) z teoretycznymi możliwymi. Rysunek 6-4 pokazuje jedną sieć zawierającą dwa bardzo gęste obszary. Gęstość oznaczałaby, że każda osoba ma związek z którąkolwiek z pozostałych. Tak wysokiej gęstości zwykle nie widać w rzeczywistych sieciach, a zatem jest wskaźnikiem sieci botów.

Spójność

Ocena spójności to kolejny sposób pomiaru i wykrywania kont botów. Dwie grupy są ze sobą powiązane przez niektóre osoby, wskazane przez wszystkie krawędzie. Oznacza to, że niektóre konta mają kontakty w drugiej grupie. Sieci botów są jednak samotne, niezbyt powiązane z resztą świata. Lub inaczej mówiąc, "eksperyment małego świata" autorstwa Stanleya Milgrama nie zadziała dla botów. Podczas gdy każdy z nas łączy tylko kilka stopni separacji, boty nie. Miarą opisującą to jest spójność, która liczy liczbę łączy, które musisz zabrać, dopóki sieć nie zostanie odłączona od reszty sieci. Ponieważ sieci botów najpierw utworzą własną grupę, łącząc się ze sobą, zanim zaczną infiltrować resztę sieci, szczególnie na początku, zobaczysz bardzo gęstą sieć o bardzo niskiej kohezji z resztą sieci. Jednak te środki wykorzystujące topologię sieci działają tylko na początku, gdy tworzona jest sieć botów. Gdy boty zaczną integrować się z siecią docelową, coraz trudniej jest odróżnić boty od zwykłej, ciasnej społeczności. Dlatego niezwykle ważne jest wykrycie tych sieci w ich formie.

Ta kwestia botów jest wysoko na liście priorytetów wszystkich sieci społecznościowych. Próbują budować własne systemy w celu wykrywania fałszywych tożsamości, ponieważ ich modele biznesowe zależą od zaufania ich użytkowników. Wiele, jeśli nie większość, platform jest ostatecznie wspieranych przez reklamodawców i nikt nie umieszczałby z nimi reklam, gdyby wiedzieli, że tylko 20% ruchu odpowiedzi pochodziło od prawdziwych ludzi. W ten sposób Twitter wprowadził górny limit dla osób, które możesz obserwować. W ten sposób ogranicza Diarny Smitrh i inne boty przed śledzeniem kilku milionów ludzi za jednym razem. Większość sieci stworzyła sposób na oznaczenie spamu lub botów. W ten sposób sieć może nie tylko ich złapać, ale także ich pierwszych przyjaciół. Korzystając z opisanej wcześniej topologii sieci lub uczenia maszynowego, sieci społecznościowe wykrywają inne podobne profile i usuwają je. Wiosną 2013 r. Facebook zainicjował masową czystkę zwodniczych kont i fałszywych "polubień" na stronach biznesowych, usuwając w niektórych przypadkach dziesiątki tysięcy tych "polubień". Business Insider podał, że liczba fałszywych kont spadła o około 83 miliony w drugim kwartale do 76 milionów w czwartym kwartale. Ale z powodu czyszczenia własny fanpage na Facebooku stracił około 124.919 fałszywych polubień. Te systemy nie oznaczają, że problem został rozwiązany. System wykrywania botów na Facebooku jest nazywany "systemem odpornościowym Facebooka". Jak pokazał Yazan Boshmaf, naukowcy wkrótce odkryli, jak łatwo ominąć te systemy sterowania. On i jego zespół obsługiwali dużą liczbę robotów na Facebooku w celu infiltracji innych użytkowników. Ich skuteczność sięgała nawet 80%. Po podłączeniu ludzi do sieci robotom z grupy Boshmaf udało się uzyskać dane osobowe, a także rozpowszechniać wiadomości. Twitter wykorzystał również system do redukcji wiadomości spamowych z 10% w sierpniu 2009 r. Do poniżej 1% w 2010 r. Wkrótce naukowcy odkryli, że była to tylko tymczasowa wygrana. W 2013 r. Amit A. Amleshwaram i in. poinformował, że 7% wszystkich poprawek wydaje się być spamerami. Będzie to niekończący się cykl, w którym ludzie będą próbować wykrywać boty, podczas gdy spamerzy próbują obejść te kontrole, jak już widzieliśmy w przypadku spamowania pocztą e-mail oraz wirusów komputerowych i branży oprogramowania antywirusowego. Będzie to cykl, w którym technologia nie może wygrać, ponieważ obie strony mają dostęp do tych samych środków. W 2012 r. Twitter poszedł o krok dalej i pozwał rzekome firmy spamujące, takie jak TweetAttacks, TweetAdder i TweetBuddy. Oprócz działań prawnych i technologicznych istnieje trzeci sposób uniknięcia spamerów od samego początku: upewnij się, że zostali zidentyfikowani. Można to zrobić na kilka sposobów. Można tego dokonać za pomocą technik obejmujących kody "captcha". Po zarejestrowaniu konta w mediach społecznościowych musisz wpisać kombinację liter, która jest odręczna lub trudna do odczytania. Te kody powinny, przynajmniej teoretycznie, być czytelne tylko dla ludzi. Niestety technologia wkrótce nadrobiła zaległości i istnieje wiele narzędzi do automatycznego odczytu i wprowadzania kodów captcha. Następny poziom to zadawanie skomplikowanych pytań, takich jak "oblicz jeden plus jeden". Ale mogą to również rozwiązać potencjalni spamerzy. W takim przypadku należałoby użyć urzędników mechanicznych, np. Ludzi z krajów o niskich zarobkach, którzy identyfikują pytania CAPTCHA i wpisują je za mniej niż cent za kod bezpieczeństwa. Z pewnością sieci mogłyby podnieść poprzeczkę jeszcze wyżej, aby uniemożliwić automatycznym systemom generowanie fałszywych tożsamości. Mogą zmusić wszystkich do wprowadzenia numeru telefonu komórkowego lub poproszenia o dane karty kredytowej. Te środki będą działać najlepiej, aby powstrzymać boty, które nie posiadają żadnego z nich. Ale niestety powstrzymują również wielu potencjalnych klientów, a takie środki mogą być komercyjnym samobójstwem. Jeśli roboty spamujące przedostaną się do sieci i rozprzestrzenią w sieci, zwłaszcza gdy znajdą przyjaciół, którzy są prawdziwymi ludźmi, ich identyfikacja może być niezwykle trudna. Możesz jednak zbadać podejrzanych kandydatów, zadając im pytania, na które trudno byłoby odpowiedzieć komputerowi. Na przykład czasami Facebook wymaga od użytkowników identyfikacji osób, które są otagowane w bibliotece zdjęć właściciela prawdziwego konta: pokazują siedem zdjęć, pozwalają osobie pominąć do dwóch z nich i nie dopuszczają żadnych błędów. Inne podejścia mogą polegać na zadawaniu pytań na podstawie profilu użytkownika lub szukaniu odpowiedzi na takie żarty, na które algorytm miałby trudności z odpowiedzią. Wszystkie te podejścia są dalekie od ideału, ponieważ zawsze będą tęsknić za niektórymi botami i karać prawdziwych użytkowników. Na przykład użytkownicy Facebooka zostali zablokowani ze swoich kont z powodu niejasnych zdjęć. Po obu stronach tej bitwy coraz częściej stosuje się wyrafinowaną technologię, która prawdopodobnie utrzyma się jeszcze przez jakiś czas. Ponieważ nie ma lekarstwa na boty, "zweryfikowane konta" będą przyszłością. Główne sieci społecznościowe, takie jak Facebook i Twitter, już je wprowadziły. Ponieważ instytucje publiczne coraz częściej korzystają z internetowych deklaracji podatkowych i innych systemów cyfrowych, weryfikacja tożsamości online będzie wkrótce jeszcze bardziej powszechna. Coś w rodzaju paszportu cyfrowego zostanie zaakceptowane. To będzie koniec większości botów, a także koniec indywidualnej prywatności w sieciach społecznościowych.

Jak skonfigurować bota

Jeśli nie jesteś technikiem, ale chcesz mieć własnego bota, możesz być zaskoczony, jak łatwo go skonfigurować. Istnieje wiele usług do wyboru. Firmy oferują retweety i obserwujących za niewielkie pieniądze. Jedna firma oferuje za jedyne 21,44 USD ponad 600 polubień na Facebooku. Ich usługa mówi:

100% gwarantowanych polubień na Facebooku! Oferujemy gwarantowane pakiety "Lubię to" na fanpage'u na Facebooku, aby rozpocząć kampanię marketingową na Facebooku. Czy obecnie masz zero polubień, czy tysiące fanów, gdy kupujesz tanie polubienia na Facebooku w Social Media Combo, zawsze wysyłamy dodatkowe "polubienia" na twoją stronę, abyś mógł zwiększyć swój dowód społecznościowy i aktywność na stronie fanów.

Krótki film z niemieckiego Deutsche Well pokazuje, jak łatwo można skonfigurować bota z serwisami takimi jak ifttt.com. Bot @spotthebot został utworzony w ciągu kilku minut i zyskał inne boty jako przyjaciół, a następnie stał się coraz bardziej połączony w prawdziwym świecie. Kolejnym krokiem jest posiadanie własnego oprogramowania botów. Jest to również łatwe do kupienia. Firmy oferuje łatwą w użyciu usługę dla wszystkich różnych sieci, w tym oprogramowanie do omijania kodów CAPTCHA. Jeśli wiesz, jak kodować, możesz pobrać oprogramowanie bota i zestawy narzędzi w języku naturalnym ze stron uniwersyteckich na podstawie licencji open source

Rozmazanie przeciwników

Diarny Smitrh chciała, abyśmy odwiedzili jej stronę internetową i potencjalnie zostali jej klientami. To jest spam w swojej podstawowej formie. Czasami boty mogą mieć konsekwencje, które wykraczają daleko poza spamowanie ludzi przy zakupach. Mogą być również wykorzystywane do szkodzenia reputacji innych osób. Boty mogą służyć do rozmazywania innych. Załóżmy, że jesteś firmą produkującą domowy środek czyszczący. Jeden z twoich konkurentów dominuje na rynku tego typu produktów i chciałbyś mieć większy udział w tym rynku. Oczywiście będziesz konkurować na podstawie cen i funkcji. Jednak może być jeszcze bardziej opłacalne, jeśli masz wątpliwości co do bezpieczeństwa produktu konkurencji. Gdybyś publicznie zakwestionował swojego konkurenta w ten sposób, ponosiłbyś odpowiedzialność za to, co mówisz, a twoja wiarygodność byłaby oczywiście podejrzana jako konkurenta. Ale jeśli wymyślisz fałszywych "zaniepokojonych obywateli", którzy rozpowszechniają te obawy w twoim imieniu za pośrednictwem mediów społecznościowych, możesz znacznie bardziej zaszkodzić reputacji konkurenta. Dotyczyłoby to szczególnie tych oskarżeń, które są przesadzone lub nie do końca dokładne. Jednym z bardziej powszechnych obszarów, w których dzieje się rozmazywanie przeciwników, jest polityka. Nic dziwnego, że tutaj znajdziesz również najwięcej aktywności botów społecznościowych. Zwłaszcza w okresie poprzedzającym wybory często występuje szara strefa między rozpowszechnianiem negatywnych i przesadzonych komunikatów kampanii a rozpowszechnianiem jawnych kłamstw. Niestety obie techniki są często stosowane w czasie wyborów.

JOHN SUNUNU

Weźmy na przykład skandal "Sununu War Room" na Twitterze podczas kampanii prezydenckiej w USA w 2012 roku. Prawdziwy John Sununu jest konserwatywnym politykiem i byłym szefem sztabu Białego Domu, który niedawno podpadł za sugerowanie, że inna osoba publiczna poparła prezydenta Baracka Obamę, częściowo dlatego, że obaj byli Afroamerykanami. W odpowiedzi dowcipniś założył konto @SununuWarRoom udając Sununu i publikując rasistowskie i obraźliwe tweety. Te tweety wkrótce rozprzestrzeniły się za pośrednictwem kanałów mediów społecznościowych, a wiele osób wierzyło, że w rzeczywistości pochodzą od Sununu, mimo że były wyraźnie zaprojektowane jako zapalne. Na przykład komentarz, że Barack Obama nie byłby "3/5 prezydenta", że Mitt Romney nawiązywałby do ustawodawstwa z końca XVII wieku, że amerykańscy niewolnicy mogą być liczeni jako trzy piąte osoby ze względu na reprezentację w Kongresie. Twitter wkrótce zamknął konto jako nieuczciwe. Podobnie jak wcześniej wspomniany przykład tworzenia nieuczciwego zasięgu ze względu na wpływy, fałszywe kampanie oszczerstw umożliwiają zniekształcanie rzeczywistości lub rozpowszechnianie kłamstw pod przykrywką anonimowości. Oznacza to, że podobnie jak w przypadku innych kwestii w mediach społecznościowych i pomiarach danych online, ważne jest zbadanie leżącego u podstaw pytania, które motywuje to, co jest publikowane. Jeśli wydaje się, że pytanie jest stronnicze lub podejrzane, należy wziąć pod uwagę możliwość oszustwa, prowadząc do zbadania ważności osób wysyłających

SKANDALE

Chociaż dość łatwo jest dostrzec dowcipnisia, który próbuje rozmazać Johna Sununu, kampanie oszczerstw mogą być czasami bardzo trudne do wykrycia. Spójrzmy na niektóre z ostatnich skandali z fałszywymi obserwatorami w polityce. W 2012 r. kilku polityków zostało oskarżonych o tworzenie "fałszywych obserwujących", aby wyglądać na ważniejszych w mediach społecznościowych. Czy te oskarżenia były prawdziwe czy fałszywe? Nigdy się nie dowiemy. Wiemy, że tak się stało, ale nie wiemy, kto stworzył tych fałszywych naśladowców. Czy to sam polityk (lub jego zespół), czy ktoś, kto chciał oczernić polityka, tworząc fałszywe oskarżenia? Jedno z pierwszych oskarżeń na wysokim szczeblu było przeciwko Newtowi Gingrichowi (@newtgingrich), który ubiegał się o republikańską nominację na prezydenta w 2012 roku. Gingrich miał zaskakująco dużą liczbę obserwujących na Twitterze - 1,3 miliona - w porównaniu z innymi politykami, jak donosi Time.com. Firma Peek w mediach społecznościowych powiedziała, że 92% obserwujących Gingricha było fałszywymi obserwatorami. Inni politycy i politycy stronami oskarżonymi o zakup tweepów w 2012 r. byli:

•  Nadine Morano, minister we francuskim rządzie 201215
•  Niemiecka partia konserwatywna (CDU)

•  Mitt Romney (@MittRomney), kolejny republikanin i kandydat GOP na wybory prezydenckie w USA

Wydaje się dziwne, że wszyscy ci politycy powinni popełnić ten sam błąd PR w ciągu mniej niż sześciu miesięcy. We wszystkich tych przypadkach fałszywych obserwujących łatwo było zauważyć. Wszystkie te konta były bardzo młode i zostały utworzone tego samego dnia lub w tym samym tygodniu. Jak omówiono w "Jak rozpoznać boty", istnieje bardzo podstawowa metoda identyfikacji botów. Profesjonalnie utworzone boty byłyby trudniejsze do wykrycia. Jak wspomniano wcześniej, zasadnicze znaczenie ma analiza motywacji wszelkich nieuczciwych zachowań. Przeanalizujmy potencjalne motywacje skandali obserwujących. Przekonamy się, że politycy wydają się bardzo niewiele zyskać od fałszywych obserwujących:

•  Wyższa liczba obserwujących zwiększa zasięg, co pomoże rozpowszechniać przesłanie, na przykład wezwania do zbierania funduszy dla kandydata. Chociaż prawdą jest, że zasięg można w jakiś sposób powiązać z liczbą obserwujących, działa on tylko dla prawdziwych obserwujących. Fałszywi obserwatorzy nie pomogliby w rozpowszechnianiu wiadomości, ponieważ często nie są powiązani z prawdziwymi ludźmi, a zatem nikt nie słyszałby tego, co powiedzieli.

•  Więcej obserwujących na koncie może sprawić, że prawdziwe poprawki będą zakładać, że polityk ma większą władzę. To z pewnością prawda. Dowody wskazują, że poprawki są bardziej prawdopodobne, jeśli spotkają kogoś z dużą liczbą obserwujących. Jaką jednak różnicę to zrobiłoby dla polityka, który jest dobrze znaną osobowością i którego autorytet jest szczegółowo analizowany przez środki masowego przekazu, takie jak telewizja? Fałszywi obserwatorzy nie zrobią żadnej różnicy! Dlatego politycy z dużej liczby zwolenników nie mają żadnych korzyści. W przypadku wszystkich skandali obserwujących może istnieć tylko jedno z dwóch poniższych wyjaśnień:
•  Istnieje ukryta struktura motywacyjna do posiadania dużej liczby obserwujących. Na przykład polityk chciałby pokazać, że ma kompetencje w mediach społecznościowych, wykazując dużą liczbę obserwujących. Podobnym wyjaśnieniem byłoby to, że istniała pewna struktura motywacyjna, która umieszczała liczbę obserwujących w osobistych celach kogoś w zespole medialnym.
•  Innym możliwym wytłumaczeniem jest to, że przeciwnicy polityczni kupowali obserwujących, aby ci ludzie wyrządzili im krzywdę i stworzyli oskarżenie o "oszukiwanie". Trudno byłoby ustalić, który z tych scenariuszy jest prawdziwy.

Tworzenie wpływu i intencji

Diarny, bot, który opisaliśmy wcześniej, nie tylko chciał stworzyć zasięg. Ten zasięg miał większy cel. Śledząc wiele osób na Twitterze, miała nadzieję, że jej spamowanie spowoduje akcję, na przykład kliknięcie jej strony internetowej, a następnie zamiar zakupu treści dla dorosłych, które sprzedaje. Jak omówiono wcześniej, celem wielu marketerów jest stworzenie intencji. Często jednak nie udaje im się po prostu osiągać. Boty mają ten sam problem, jeśli dążą tylko do osiągnięcia zasięgu. Skuteczny bot będzie próbował wpływać, wyzwalać akcję i tworzyć intencje. Różnica między zasięgiem a intencją często polega na tworzeniu ludzkiego połączenia z potrzebą. Obserwowanie ludzi na Twitterze jest stosunkowo łatwe dla bota. Nakłonienie tych osób do kliknięcia linku do Twojej witryny jest trudniejsze; musi być jakaś atrakcja. (W przypadku Diarny może to przybrać formę fizycznej atrakcyjności ze zdjęcia profilowego.) Stamtąd przełożenie tego kliknięcia na zamiar zakupu wymaga zarówno percepcji zaspokojenia potrzeby, jak i wiarygodności, aby ludzie ci zaufali to. Przypomnij sobie spamerów e-mail; odsetek odpowiedzi wynosił jeden na 12,5 miliona w przypadku fałszywej witryny apteki. W przypadku wiadomości spamowych zauważyliśmy, że wskaźniki kliknięć poprawiają się, gdy poprawia się postrzegana wiarygodność nadawcy. Chociaż wiadomości e-mail będące spamem mają tylko ograniczone możliwości zwiększenia tego rodzaju postrzeganej wiarygodności, media społecznościowe umożliwiają szeroki zakres sposobów ustalenia wiarygodności. Aby boty mogły poprawić wskaźniki kliknięć lub zdobyć informacje, muszą poprawić swoją wiarygodność w świecie rzeczywistym. To może działać całkiem pomyślnie. Pojawiły się nawet doniesienia o botach usprawniających budowanie zaufanych połączeń w mediach społecznościowych. Zamiast bezpośrednio kontaktować się z nowym kontaktem, możesz na przykład użyć bota Twittera lub bota Facebooka, aby uzyskać wprowadzenie. W eksperymencie zgłoszonym przez MIT Technology Review zbudowano roboty na Twitterze, aby zwabić potencjalne połączenia. Naukowcy odkryli, że po ustanowieniu połączenia roboty te mogłyby wprowadzić nowe połączenia, umożliwiając im zbudowanie sieci na podstawie rekomendacji. Kiedyś public relations było domeną tych, którzy mogli pozwolić sobie na dostęp do mediów na dużą skalę; dziś nawet małe firmy mogą prowadzić wojny PR za pomocą botów, lub działacze mogą wynaleźć armię fałszywych tożsamości, które wydają się popierać ich przyczyny. Powoduje to jednak coraz większy sceptycyzm wśród użytkowników mediów społecznościowych i sprawia, że zaufanie staje się jeszcze ważniejszym zasobem w dzisiejszej komunikacji. W poniższych sekcjach przyjrzymy się dwóm przykładom prób wywierania wpływu na ludzi: Nigel Leck (@NigelLeck), który próbował wpłynąć na debaty dotyczące kwestii środowiskowych oraz ostatnie wysiłki amerykańskiego wojska, aby stworzyć nieistniejące osobistości dla mediów społecznościowych jako potencjał narzędzie do wywierania wpływu.

Test Turinga na Titterze

Przypadek Nigela Lecka @ NigelLeck został zgłoszony przez Treehuggera. Nigel zdał sobie sprawę, że te same argumenty były często używane w debatach środowiskowych, więc zaprogramował robota, aby tweetował te argumenty za niego. Co pięć minut program przeszukiwał Twittera w poszukiwaniu argumentów i udzielał predefiniowanych odpowiedzi z bazy danych. Z pewnym humorem nazwał robota Testem Turinga zgodnie z podobnie nazwanym eksperymentem na inteligencji komputerowej. Około 40 000 tweetów później, po dużym zainteresowaniu prasy, Twitter dowiedział się o tym bocie i go zamknął.

Test Turinga

Nigel Leck nazwał swojego bota @AI_AGW testem Turinga. Alan Turing, jeden z założycieli współczesnej informatyki, postawił kiedyś odważne pytanie, czy komputery mogą kiedykolwiek skłonić do myślenia. W artykule z 1950 r. przerobił to pytanie, czy komputer może niezawodnie naśladować człowieka. Pytanie to doprowadziło do tak zwanego testu Turinga: czy komputer może komunikować się za pomocą tekstu w sposób, którego człowiek nie jest w stanie odróżnić od osoby? Jednym z najwcześniejszych przykładów testu Turinga był ELIZA, program komputerowy z lat 60. XX wieku, który modelował sesję psychoterapii z wykorzystaniem podejścia doktora Carla Rogersa, który empatycznie sparafrazował większość wypowiedzi pacjenta podczas okresowych obserwacji. Stosując reguły językowe, program udzielił zaskakująco przekonujących odpowiedzi: na przykład oświadczenie mówiące o depresji może spotkać się z "Przykro mi słyszeć, że jesteś w depresji", podczas gdy często odpowiadano na pytania zaczynające się od "Czy ty …" z niedowierzaniem: "Rozmawialiśmy o tobie, a nie o mnie". Późniejsze przykłady testu Turinga obejmowały PARRY (symulacja a paranoiczny schizofrenik, który oszukał prawie połowę psychiatrów w jednym badaniu) i RACTER (gadatliwy gawędziarz). W erze Internetu "chatboty" oparte na podobnej technologii oszukują ludzi, którzy dzielą się swoimi danymi osobowymi w celu kradzieży tożsamości, podszywając się pod osoby atrakcyjne płci przeciwnej.

Wyszukiwanie armii USA robotów w mediach społecznościowych

Na innym poziomie potencjał rozprzestrzeniania wpływów przez boty może przyciągać zainteresowanie i badania na wysokim poziomie. Na przykład dokumenty publiczne z amerykańskich sił powietrznych wykazały, że zwróciły się do dostawców o osobiste oprogramowanie do zarządzania, które można wykorzystać do zbudowania szeregu nieistniejących ludzi na platformach mediów społecznościowych. Kontrakt został udzielony w 2011 r. amerykańskiej firmie Ntrepid za 2,76 mln USD. Chociaż planowane zastosowania tego oprogramowania są sklasyfikowane, takie narzędzia pozwoliłyby strategicznie umieszczać wirtualnych ludzi w lokalizacjach na całym świecie, aby wpływać na opinię publiczną w sposób, który byłby korzystny dla rządu USA. The Guardian zacytował generała Davida Petraeusa, który powiedział, że to oprogramowanie służy do "przeciwstawiania się ekstremistycznej ideologii i propagandzie oraz do zapewnienia usłyszenia wiarygodnych głosów w regionie". Takie narzędzia reprezentują współczesny odpowiednik upuszczania ulotek z samolotów z poprzednich wojen światowych, ale w znacznie bardziej osobisty i wiarygodny sposób, i można to zrobić za naciśnięciem przycisku z poziomu bezpieczeństwa i wygody własnych granic .

Rozpowszechnianie płatnych opinii: Grassroots i Astroturfing

Media społecznościowe często uchodziły za najczystszą formę demokracji. Każdy może wziąć udział. W polityce media społecznościowe często łączą się z lokalnymi społecznościami. Wolontariusze związani wspólną przyczyną walczą o swoje interesy, a nawet mogą powodować zmiany, zwracając uwagę opinii publicznej. Ruchy oddolne są często postrzegane jako przeciwieństwo demokracji przedstawicielskiej, w której decyzje polityczne lub społeczne są zdominowane przez kilka wybranych źródeł władzy. Każdy może spróbować rozpocząć ruch oddolny, ponieważ każdy może założyć konto w mediach społecznościowych. Jednak masowe przyjęcie danej przyczyny jest dalekie od pewności. Istnieją trzy główne czynniki sukcesu, w jaki ruch oddolny angażuje się w szerszą grupę ludzi:

Zawartość

Czy przyczyną tego ruchu jest moja osobista sprawa?

Dostęp

Czy mogę łatwo uczestniczyć w tym ruchu?

Zasięg

Czy mogę dotrzeć do wystarczającej liczby osób i przekonać ich, że przyczyna jest ważna i że powinni uczestniczyć?

Ruchy oddolne istnieją od początku społeczeństwa. Jednak media społecznościowe bardzo ułatwiły dotarcie i dostęp. Na początku Internetu społecznościowego trzeba było napisać post, aby wziąć udział i wyrazić opinię. W przypadku Twittera lub mikroblogów post, a tym samym wysiłek, stał się mniejszy. Dzisiaj składanie oświadczenia lub uzasadnienie przyczyny sprowadza się do jednego kliknięcia, takiego jak ponowne przesłanie dalej lub Facebook.

SOPA i PIPA ACT: Nowoczesny ruch grassrootów

Potęga tej prostoty ujawniła się w ogólnoświatowym proteście internetowym przeprowadzonym na początku 2012 r. Były obawy dotyczące tego, w jaki sposób ustawodawstwo dotyczące piractwa internetowego może wyłączyć swobodę wypowiedzi i wymagać szkodliwego poziomu infrastruktury ze strony dostawców usług. Kilka firm, takich jak Google i Wikipedia, poprosiło odwiedzających USA o skontaktowanie się ze swoim kongresmenem w celu sprzeciwienia się wprowadzeniu SOPA (Ustawa o piractwie internetowym) i PIPA (Ustawa o ochronie własności intelektualnej), rachunków, które zwiększyłyby wiele niepożądanych kosztów i odpowiedzialności na tych witrynach, zmuszając je do zamykania witryn postrzeganych jako naruszające prawa autorskie lub sprzedające oszukańcze produkty, w sporze wokół większego problemu wolności słowa. Google zaciemniło swoje logo na swojej stronie głównej, podczas gdy Wikipedia całkowicie zaciemniła usługę, przy czym obie strony oferują linki do protestu przeciwko tym przepisom. Frekwencja protestujących online była ogromna, a sieci społecznościowe były pełne argumentów przeciwko rachunkom. Ten oddolny ruch odniósł duży sukces, a oba rachunki zostały szybko odłożone przez sponsorów. Sukces ten najprawdopodobniej wynikał nie tylko z powodu wstrzymania prawodawstwa. Można nawet bezpiecznie założyć, że nie każdy protestujący rozumiał leżącą u podstaw dyskusję. Ale odniosło sukces, ponieważ łatwo było w nim uczestniczyć i ponieważ strony takie jak Google i Wikipedia miały duży zasięg. Bloger Dan Rowinski wskazał że protestujące strony internetowe opowiedziały się za zbyt uproszczonymi terminami, aby wzbudzić opinię publiczną:

"Zła cenzura. Nie chcesz cenzury? Oczywiście nie. Tutaj jest fajne wyskakujące okienko dla ciebie. Kliknij przycisk z napisem "cenzura źle". Możesz to zrobić. Dobry chłopak."

Ten przykład podkreśla, że ruchy mogą wykorzystać Internet i media społecznościowe do zbudowania bazy wsparcia w sposób potencjalnie zwrotny i uproszczony.

Sprawa Antitrust Microsoft

Czasami oddolne ruchy idą jeszcze dalej. Nie jest to kwestia uproszczenia i zasięgu, jak w protestach SOPA, ale wypaczenie obrazu jak w przypadku Nigela i wojska amerykańskiego. Bez względu na to, jak uczciwe są intencje, stworzyli fałszywe osobowości lub "skarpetki" i boty, aby stworzyć iluzję masowego ruchu lub przynajmniej szeroko popartą opinię. Zjawisko to jest czasem nazywane "astroturfingiem". Termin ten oznacza, że coś nie jest prawdziwym oddolnym ruchem, ale raczej ruchem złożonym ze sztucznej trawy. (Astroturf to marka sztucznej trawy, która została po raz pierwszy zastosowana w Houston Astrodome, kiedy odkryto, że prawdziwa trawa nie może rosnąć pod kopulastym dachem.) Technologia jest odpowiednia do astroturfingu, ponieważ może umożliwić tysiącom "ogólnych skarpetek" głosowanie na daną sprawę, tworząc iluzję masowego ruchu.

Astroturfing istnieje już od dłuższego czasu i nie ogranicza się do pojawienia się mediów społecznościowych. Na przykład, kiedy Microsoft próbował zorganizować ruch przeciwko pozwie antymonopolistycznemu pod koniec lat 90., jego zwolennicy otrzymali przygotowane listy wzywające prezydenta Busha lub innych przedstawicieli Kongresu do porzucenia ustawy. Microsoft zrozumiał, że łatwość uczestnictwa jest kluczowa i zaoferował odręczne listy na już spersonalizowanych materiałach biurowych z wstępnie zaadresowanymi kopertami. Wszyscy uczestnicy musieli tylko udać się na pocztę. Niestety niektórzy protestujący poszli nawet o krok dalej i wysłali listy w imieniu innych osób, z których część już nie żyła. Gdy stało się to znane, gazety wyśmiewały, że zmarli mają dość rządowej sprawy antymonopolowej przeciwko Microsoft Corp.

50-centowi chińscy bloggerzy

Niektóre rządy starają się wpływać na opinię publiczną. Chiny stworzyły płatną armię blogerów na długo przed tym, zanim wojsko amerykańskie zaczęło szukać oprogramowania do zarządzania osobistego. Wyrażenie "armia 5 Mao" lub "50-centowy bloger" wymyślono dla grupy chińskich obywateli, którzy otrzymują wynagrodzenie za komentowanie lub pisanie na korzyść chińskiego rządu. Udają zwykłych blogerów, ale używają różnych tożsamości w celu promowania rządowych opinii. David Bandurski z Uniwersytetu w Hongkongu oszacował w 2008 r., Że w Chinach było około 280 000 płatnych blogerów25. Jednak korzystanie z płatnych blogerów ostatnio zmalało, być może z powodu nieefektywności tego procesu. Fisheye Analytics odnotowało silny spadek liczby tych blogerów w latach 2010-2011. Ashwin Reddy, współzałożyciel firmy, zauważył: "W 2011 r. Całkowita aktywność w mediach społecznościowych [z blogów] wzrosła o ponad 50% w porównaniu z rokiem poprzednim. Chińskie blogi wykazały jednak znaczny spadek, do zaledwie jednej trzeciej poziomu aktywności w 2010 r. " Dlaczego tak się stało? Być może rząd chiński uznał, że rozpowszechnianie wiadomości nie oznaczało działania, a wpływ tych blogerów był niewystarczający. A może armia 5 Mao koncentruje się teraz na innych obszarach Internetu społecznościowego, takich jak Twitter, Weibo lub Wechat. Tak czy inaczej, istnienie tych blogerów stanowi przykład tego, w jaki sposób astroturfing może być łatwo osiągnięty przez prawdziwych ludzi, o ile ich usługi są wystarczająco tanie. Ponadto granica między prawdziwymi a zautomatyzowanymi źródłami opinii stale się zmienia.

Przyczyna, dostęp i zasięg

Aby stworzyć oddolny ruch, uczciwie lub oszukańczo, potrzebujesz trzech rzeczy: przyczyny (takiej jak zezwolenie na palenie lub zakaz SOPA), dostępu do protestu (np. napisanie listu, wyjście na ulicę lub kliknięcie przycisku) oraz zasięg, aby zaangażować wiele osób i poinformować ich o swoim proteście. Nowsze elektroniczne środki generowania zasięgu, takie jak używanie botów lub wielu osobowości online, potencjalnie ułatwiają utworzenie takiego ruchu i być może pomnożenie go przez zakaźność wiadomości. To sprawia, że astroturfing stanowi jeszcze większe ryzyko w dzisiejszym świecie danych online i mediów społecznościowych.

Zaraźliwość

Jak wspomniano wcześniej, stwierdzenie, że komunikat lub protest społecznościowy, taki jak ten przeciwko SOPA, był "wirusowy", nie jest właściwym zastosowaniem tego słowa. Informacja nabiera na wadze podczas podróży. Im bardziej ludzie wierzą w dane informacje, tym bardziej są one prawdziwe. Zatem rozprzestrzenianie się wiadomości nie przypomina wirusa, który jest równie zaraźliwy przez cały czas. Zaraźliwe lub wirusowe wiadomości będą musiały mieć te same składniki, co udany ruch oddolny: zasięg, dostęp lub łatwy sposób rozpowszechniania wiadomości oraz odpowiednią treść lub odpowiednią przyczynę. Jak widzieliśmy w ostatniej sekcji, technologia może uprościć rozpowszechnianie informacji za jednym kliknięciem myszy. Istnieje również wyższe potencjalne ryzyko związane z "graniem w system" za pomocą robotów. Widzieliśmy, że zasięg można zwiększyć dzięki technologii. Czy możemy jednak zmienić lub przewidzieć, jak zakaźne są treści? Jeśli moglibyśmy, czy moglibyśmy stworzyć wirtualność z założenia?

KONY2012

Czy wiesz, że Kony2012 był jednym z najbardziej zaraźliwych filmów na YouTube? Po zaledwie sześciu dniach miał ponad 100 milionów wyświetleń na YouTube. Ten 30-minutowy film, stworzony przez Invisible Children, Inc., wyjaśnia bardzo emocjonalnie, a nawet manipulacyjnie, sytuację w Ugandzie, wzywając do działania przeciwko Josephowi Kony'emu, przywódcy, który wykorzystuje dzieci.

Jak film zyskał taką sławę?

Na pewno treść była ważnym czynnikiem sukcesu. Jeśli treść nie była po prostu interesująca, to nie rozprzestrzeniałaby się, bez względu na to, czy była dystrybuowana w dużej sieci, czy nie. Treść wideo Kony2012 jest bardzo emocjonalna, ponieważ omawia zbrodnie wojenne wobec dzieci. Co więcej, wideo było bardzo dobrze zrobione, w rodzaju formatu MTV z dużą ilością osadzonych emocje. Drugim czynnikiem sukcesu było to, jak Invisible Children stworzyły silny zasięg za pośrednictwem swojej sieci, jak opisał Gilad Lotan na swoim blogu. Film nie został umieszczony gdzieś na YouTube i czeka na sławę. Nie, Invisible Children miały już organizację kibiców. Ci kibice działali jako rzecznicy od razu promując film. Było kilka ośrodków, w których ludzie zaczęli promować film. Tak więc w krótkim czasie, w różnych miejscach na świecie, obejrzano ten film. Tego rodzaju oglądanie sprawiło, że algorytm rankingu YouTube uznał, że musi to być ważny film. YouTube promował film jeszcze bardziej. Celem tego filmu było zwiększenie zasięgu, a rankingi YouTube były integralną częścią tego procesu. Być może reakcja algorytmu pomiarowego była nawet ważniejsza dla zasięgu filmu niż reakcje początkowych widzów. Na szerszym poziomie i niezależnie od Kony2012, ten przykład oznacza, że ludzie próbujący rozpowszechniać fałszywe informacje mogą również wykorzystać wysiłki fałszywej rzeszy botów do "gry w system" i potencjalnie zwiększyć jego zasięg i wirusowość.

VIRAL BY DESIGN

W końcu nikt nie będzie wiedział, czy tego rodzaju zaraźliwość wydarzyła się przypadkowo, czy też istniał specjalny plan wpływania na algorytm YouTube w celu promowania filmu. Ten ostatni przykład nasuwa jednak pytanie, czy moglibyśmy zaaranżować wirusowość. Odpowiedź brzmi: tak i nie. Tak, z dużą ostrożnością możesz spróbować wpłynąć na algorytm i pomóc w rozpowszechnianiu wiadomości podobnej do tego, w jaki sposób marketerzy wpływają na algorytm rankingu wyszukiwania Google. I tak, pieniądze kupią zasięg, który byłby alternatywną drogą do zwiększenia świadomości. Część "nie" polega na tym, że jak dotąd nie możemy ustalić, czy wiadomość jest zaraźliwa, czy nie. I właśnie sposób, w jaki zasięg nie jest gwarancją intencji, sam w sobie nie jest również gwarancją zaraźliwości wiadomości. Zależy to od samej treści wiadomości. W przypadku Kony2012 treść była odpowiednia do rozpowszechnienia. Jednak do tej pory badania nie znalazły dobrego sposobu przewidzenia z góry, czy treść się rozprzestrzeni, czy nie. Na przykład badania Eytana Bakshy z University of Michigan opublikowane w 2011 r. Wykazały, że nie ma dobrego sposobu na wyjaśnienie rozprzestrzeniania się niektórych adresów URL. Bakshy i koledzy badali ten wpływ wśród 1,6 miliona obserwujących na Twitterze i 74 milionów wydarzeń w okresie dwóch miesięcy w 2011 roku. Okazało się, że ulepszenia z większą liczbą obserwujących były bardziej prawdopodobne, aby zwiększyć rozprzestrzenianie się wiadomości (mierzone liczba retweetów). Z drugiej strony odkryli również, że prawdopodobieństwo rozpowszechnienia określonej wiadomości było dość niskie. Co więcej, odkryli, że przewidywane zainteresowanie treścią ma niewielki wpływ na stopień rozpowszechnienia wiadomości. Innymi słowy, z perspektywy czasu znacznie częściej obserwuje się wirusowość niż przewidywano. Innymi słowy, sukces treści jest trudny do przewidzenia. Nikt nie może dokładnie przewidzieć, czy wiadomość się rozprzestrzeni, czy piosenka będzie hitem, czy film stanie się przebojem. Rozpowszechnianie wiadomości lub sukces treści jest niedeterministyczny lub przynajmniej niedostatecznie zrozumiany. Zbyt wiele czynników zewnętrznych bierze udział w pytaniu, czy dana wiadomość, piosenka, film itp. Rezonuje ze społeczeństwem, aby ułatwić lub łatwo znaleźć odpowiedź. Podobnie do tego, jak bardzo ostrożnie rozmawiamy o tym, że "wpływowi" są niezbędni w tworzeniu zamiaru sprzedaży, zachowujemy ostrożność, jeśli chodzi o stwierdzenie, że możesz wyreżyserować przekaz wiadomości. Pomimo wyników badań wiele firm oferuje planowanie, dostarczanie i porównywanie rozprzestrzeniania się treści, a często implikuje możliwość stworzenia "zorganizowanej wirusowości". Gdyby te obietnice były prawdziwe, każdy mógłby zaprojektować własną kampanię, która stałaby się wirusowa. Ale jeśli wszyscy to zrobią, a każda kampania ma charakter wirusowy lub zaraźliwy, wówczas normalność jest normą, i znowu znajdziemy się w sytuacji, w której żadne przesłanie nie jest wyjątkowe ani wyjątkowe. Prawdziwa kontrola poprze odkrycia naukowe Bakshy′ego i nasze logiczne rozumowanie: niedemokratyczne, dyktatorskie reżimy chętnie stworzyłyby taki automatyczny proces rozpowszechniania zwodniczych informacji. Próbowali, ale często zawiedli: prawda zawsze wychodzi na jaw. Być może jest to wskazówka, że ludzie nie są tak łatwo oszukać, jak mogą oczekiwać marketerzy. Jednak wielu nadal będzie próbowało, korzystając z narzędzi takich jak boty i platformy mediów społecznościowych. Podsumowując, nie wierzymy, że istnieje bezpieczna, przewidywalna metoda generowania wirusowości lub zaraźliwości. Uważamy, że zautomatyzowane próby zaraźliwości najprawdopodobniej zakończą się niepowodzeniem, ponieważ ludzki umysł szuka nieoczekiwanej zawartości, a nieoczekiwany oznacza także nieoczekiwany dla dowolnego algorytmu. Z jednej strony ludzki umysł jest zbyt różnorodny i zbyt zainteresowany nieoczekiwanym przewidywaniem jego zachowania; z drugiej strony, każdy zestaw ostatecznie straciłby element zaskoczenia i nowości i odwróciłby się od swoich pierwotnych celów.

Prawda o Pradzie

Wiadomość, zaraźliwa lub nie, może być prawdziwa lub fałszywa. Fałszywe informacje ogólnie powodują, że jeśli ludzie zdadzą sobie sprawę, że nie jest to godne zaufania, to nie uwierzą. W pewnym sensie jest podobny do nowo utworzonego bota Twittera bez przyjaciół. Nikt nie chce przyjaźnić się z nieznajomym, który nie ma przyjaciół. Nikt nie chce rozpowszechniać plotek, w które nikt nie wierzy. Ale kiedy wiadomość zostanie wysłana, z czasem może przybrać na wadze. Dotyczy to również fałszywych informacji. Gdy te fałszywe informacje zostaną dotknięte przez wszystkich, niektórzy mogą zacząć w to wierzyć, przynajmniej w pewnym stopniu. Istnieje przekonanie, że w każdej historii jest przynajmniej ziarno prawdy, a to poczucie prawdy jest wzmocnione w miarę rozprzestrzeniania się wiadomości. Dlatego osoby podające fałszywe informacje będą musiały uzyskać wiadomość wirusową, aby ludzie zaczęli wierzyć wiadomości, zanim będą mogli sprawdzić fakty. Jak wskazał Ratkiewicz i koledzy w badaniu przekazów politycznych, gdy pomysł lub treść zaczyna się rozprzestrzeniać, robi to w taki sam sposób, jak każde zjawisko wirusowe. Podkreśla to potrzebę wczesnej interwencji, aby zapobiec takiemu rozprzestrzenianiu się. Boty mogą nie tylko spamować ludzi, oczerniać przeciwników i próbować przekonywać innych, ale mogą także tworzyć "zakaźne wiadomości", w których później nie ma znaczenia, czy są prawdziwe, czy nie. Aby dostrzec celową próbę, musisz spojrzeć na podpowiedź wiadomości i szybko zareagować kontrargumentami, zanim wiadomość zacznie się rozprzestrzeniać.

Jak wykonywać próby celu tworzenia zakaźności

Im więcej osób zaufało określonej wiadomości, tym bardziej prawdopodobne, że zostanie ona przekazana dalej. Tak więc, aby zidentyfikować zasadzoną wiadomość, możesz z czasem przyjrzeć się ewolucji wiadomości. Jeśli wiadomość zaczyna się bardzo szybko rozprzestrzeniać na początku, obsługiwana przez ściśle powiązane konta, prawdopodobnie jest to próba utworzenia wirusowości lub fałszywych plotek. Jeśli wiadomości zaczną się powoli rozprzestrzeniać obsługiwane przez niezależnie połączone konta, jest bardziej prawdopodobne, że jest to prawdziwa wiadomość. Każda wiadomość zawiera części, z których każda może zacząć się rozprzestrzeniać. Nazywa się je memami i mogą być:

•  Hashtagi na Twitterze
•  Zwroty tworzące całość lub część wiadomości
•  Linki do stron internetowych
•  Inni użytkownicy lub konta w sieci społecznościowej

Musisz sprawdzić, czy któraś z tych części na początku wykazuje nieprawidłowe zachowanie. Podobnie jak w przypadku fałszywych obserwujących, astroturf musi zostać wykryty na początku. Gdy posłana wiadomość nabrała tempa, trudno ją wykryć, ponieważ społeczność zaczyna w nią wierzyć, a zatem propagacja wygląda podobnie do prawdziwej wiadomości. Wciąż dostępnych jest stosunkowo niewiele narzędzi, które analizują prawdziwą prawdę przekazu. Jeden z najlepszych dostępnych dotychczas wysiłków pochodzi ze Szkoły Informatyki i Informatyki na Uniwersytecie Indiana. Profesor Filippo Menczer opracował serwis o nazwie "truey", którego funkcją jest uważanie na wiadomości astroturfowe. Jeśli chcesz wypróbować ten program sam, możesz zacząć od jego publicznie dostępnego kodu lub przeczytać jego badania. Inne sposoby wykrywania astroturfingu obejmują nie wypatrywanie wiadomości lub memu, ale próbowanie dostrzeżenia robotów. W ten sam sposób, w jaki nie ma kuloodpornego systemu do tworzenia wirusów, nie ma pewnego sposobu na wykrycie podróbek. Gdy tylko dowiesz się, na czym polega fałszywa wiadomość, dostępne będą metody pozwalające uniknąć wykrycia. Na przykład algorytm rzeczywiście szukałby danego adresu URL i tego, czy widoczne jest nienaturalne rozprzestrzenianie się. Spamerzy zaczęli ukrywać tweety w kółko, dodając losowe zapytania na końcu adresu URL lub korzystając z różnych usług krótkich linków.

Przeciwieństwo wirtualności: tłumienie wiadomości

Roboty mogą być wykorzystywane nie tylko do ostrożnego formułowania opinii lub wywierania wpływu na ludzi; mogą również pracować nad nałożeniem jakiejkolwiek dyskusji dużą ilością innych opinii. Ten rodzaj spamowania jest podobny do ataków DoS (odmowa usługi), w których ktoś próbuje uporządkować serwer, zamieniając go w zbyt wiele bezużytecznych żądań. Można to wykorzystać w celu aktywizacji przeciwko konkretnej korporacji lub branży, na przykład w przypadku zalania strony na Facebooku niepotrzebnymi lub krytycznymi postami, które uniemożliwiają właścicielowi strony skuteczną komunikację. Może być również wykorzystywany przez reżimy totalitarne do tłumienia sprzeciwu, zarówno w Internecie, jak i w świecie rzeczywistym. Na przykład podczas arabskiego ruchu wiosennego, który rozpoczął się w 2010 roku, ruchy rebeliantów często wykorzystywały media społecznościowe do koordynowania protestów i innych działań. Rządy i inni mogą wykorzystywać podobne hashtagi na Twitterze, aby przytłoczyć komunikację, wysyłając setki nieistotnych tweetów, a takie narzędzia zostały użyte przeciwko protestującym w celu zakłócenia ich działalności. W pewnym sensie spamowanie zmniejsza zasięg innych wiadomości. Wiadomość spamowa zaczyna się pojawiać na szczycie innych wiadomości, przesuwając prawdziwą wiadomość w dół, zmniejszając jej widoczność. Jillian York podała bardzo dobry przykład podczas konfliktu w Syrii. Zarówno na arenie politycznej, jak i biznesowej takie ruchy służą jako przykłady gry typu "kot i mysz", która nadal istnieje za destrukcyjnym wykorzystaniem mediów społecznościowych.

Rozmyte linie

Czy zbyt ciężko pracujemy nad ludźmi, którzy próbują sprzedawać pomysły, nazywając je "fałszywymi? Czyż nie jest to marzenie każdego marketera, aby upowszechnić swoją markę? Czy nie byłoby to typowe wezwanie do działania dla agencji PR: "Proszę rozpowszechniać te informacje. Jeśli ktoś rozpowszechnia wiadomość za pomocą robotów, najprawdopodobniej chce zrobić coś złego. Ale w PR jest też wiele szarych obszarów, których nie można łatwo wykryć ani ocenić jako nieetyczne. Płatne opinie lub opinie popierane przez grupy lobbingowe mogą być kolejnym źródłem fałszywej mądrości. Niestety często trudno jest odróżnić próby lobbingu od rażących nadużyć. Linie są rozmyte w wielu sytuacjach i nie istnieją dobre pomiary wykrywalności. Jednak nieliczne przypadki, w których ktoś wyraźnie znalazł się w szarej strefie i został odkryty, doprowadziły nas do odgadnięcia, w jakim stopniu opinie są wykorzystywane w dzisiejszym świecie.

ZESZYT ĆWICZEŃ

Oszustwo stanowi zagrożenie dla każdej firmy. Musisz być przygotowany do wykrywania nieuczciwych zachowań. Sprawdź, jak można zaatakować Twoje dane:

•  Jakie są najważniejsze wskaźniki dla Twoich organizacji? Zapisz je i wypisz zmienne użyte do obliczenia metryki.
•  Czy te dane są zamknięte i tajne? Jak często je zmieniasz?
•  Jeśli chcesz zaatakować lub wypaczyć metrykę, co musisz zrobić?
•  Poproś swoich peerów i pracowników o "zhakowanie" cię. Poproś ich, aby zbudowali bota, który oszuka Twoje dane. Tylko w ten sposób dowiesz się o słabościach swojego systemu pomiarowego.