Musel jsem vám napsat a to z důvodu, že většina IT pracovníků, programátorů ani netuší co vytvořili.
Doznání vědce Kosinského z roku 2016, vědec, který stvořil technologii, kterou využívala firma Cambridge analytica a dnes už využívají i jiné firmy.
Zde je doznání ohledně technologie psychometrie vědce Kosinského ve švýcarském magazínu Das magazine. Dnes provedli aktualizaci článku, ale už je uzavřený. Ještě nedávno byl přístupný.
Článek byl publikován 3.12.2016
Zdroj Švýcarský časopis Das Magazin:
https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/
Zdroj: https://scout.ai/story/the-rise-of-the-weaponized-ai-propaganda-machine
Jazykový volný překlad, zdroj:
Data, jež obrátila svět vzhůru nohama
https://a2larm.cz/2017/02/data-jez-obratila-svet-vzhuru-nohama/
Další příklad
Vědec, doktor (neurolog) pan Stránský
Problem digitálních technologií, které nás dostávají do zajetí aníž si to většina uvědomuje začíná být mnehem horší než jsme si mysleli.
Konečně se rozhoupali i v rozhlas ČRo a přicházejí s větším důrazem na informace ohledně škodlivosti digitálních technologií.
Na kupredudominulosti.cz jsou 2 díly rozhovoru M.J.Stránského s Martinou Kociánovou
Níže celkem děsivý úryvek.. Stvořili to s vědomím vytvořit z nás digitální otroky.
A sociální sítě byly doslova vymyšleny s neurologem, který seděl po boku programátora a měřili hladinu dopaminu.
A když šel dopamin nahoru, tak se daný program a krok nainstaloval. Kvůli tomu rezignoval první ředitel Facebooku Sean Parker, který přímo říkal, že vytvořili produkt, který byl vymyšlen čistě na základě toho, že měřil návykovost. A když vymysleli princip lajk, pěst s palcem nahoru, tak dopamin prostřelil strop a přišli na něco úplně úžasného, totiž, že si lidé vytvořili perfektní začarovaný kruh, že se ráno probudili a měřili počet palců nahoru a, což je ještě zajímavější, měřili počet palců dolů, které je vzrušily ještě víc. A na základě toho začali hodnotit sami sebe a vracet se zpátky do Facebooku a do sociálních sítí, aby si zlepšili profil v umělém světě. A tím se vytvořila návykovost.
To se potvrdilo experimentem, ve kterém jsme participovali. Vzalo se pár tisíc uživatelů Facebooku a dohodlo se, že oznámí všem kamarádům, že mají dnes narozeniny. Tak to rozeslali kamarádům a téměř všichni odpověděli: „Gratulujeme.“ A jedna třetina odpověděla „HBD“, což je Happy Birthday, poněvadž teď už se ani nemluví v konkrétních větách, prostě se textuje ve zkratkách.
Za týden každý z nich rozeslali úplně stejné oznámení všem kamarádům „Dnes mám narozeniny“. Přes 90 procent z nich odpovědělo zpátky Happy Birthday. Nikdo nepřemýšlí, je to všechno jenom reflexní, takže to jsou ty návykové kruhy, které se vytvořili.
PRVNÍ DÍL
https://www.kupredudominulosti.cz/calabek-milan-1d-nejhlubsi-urovni-fyzikalni-molekularni-geneticke-a-epigeneticke-roviny-je-informace/
DRUHÝ DÍL
https://www.kupredudominulosti.cz/calabek-milan-2d-cilem-neni-alternativni-ani-klasicka-zapadni-medicina-ale-jejich-integrace/
ČRo
Sociální sítě a lidský mozek. Souvislosti s dnešní civilizací
Pozor, IQ dětí se snižuje. A mohou za to sociální sítě, varuje odborník na lidský mozek
Lachtana vycvičíte pomocí ryby, člověka prý pomocí lajku na sociální síti. „Jsme mnohem zmapovatelnější, než si myslíme,“ říká v rozhovoru s Lucií Výbornou neurolog a odborník na lidský mozek Martin Jan Stránský.
https://radiozurnal.rozhlas.cz/pozor-iq-deti-se-snizuje-a-mohou-za-socialni-site-varuje-odbornik-na-lidsky-7952673
Další příklad AI!
Nejpomalejší, máte padáka! O výpovědi rozhodují stroje, přiznal Amazon
https://www.idnes.cz/technet/technika/umela-inteligence-algoritmus-amazon-personalni-oddeleni-mereni-produktivity.A190426_154616_tec_technika_pka
Už je opravdu na zamyšlenou co tato civilizace vytvořila proti sobě za zbraň hromadného ničení.
Podle Archive byl ten článek za paywall vždycky, a ten druhý odkaz pro změnu hlásí problémy s certifikátem a 502.
Moje odpověď je:
Cambridge analytica neporušuje žádný zákon. Pokud se nám to nelíbí, budeme ten zákon muset napsat, tvrdě proti nim zakročit (stejně jako proti jejich zákazníkům), a budeme muset seznam jejich zákazníků zveřejnit.
Spracovavala data o ludoch bez ich povolenia a tie data boli pouzite na ovplyvnovanie verejnej mienky v pripadoch ako volby americkeho prezidenta, Brexit,..
To, ze to smeruje do stratena je len vdaka tomu, ze o tom rozhoduju ludia, ktory v tom mali prsty(samy o sebe). Tutla sa to aby nevyslo na povrch nieco horsie. Nieje sanca by sa toto nezavisle a riadne vysetrilo.
To je přece jednoduché. Vítězství Trumpa bylo - jedno kým - považováno za zlo, anomálii, něco co se nemělo stát. Proto se začalo řešit, jak k tomu vůbec mělo dojít. Přitom sociální média ve velkém používal i Obamův tým a metody byly podobné:
"Under the way Facebook allowed its apps to operate between 2010 and 2015, Obama’s 2012 re-election app and the survey app used by Cambridge Analytica had access not only to their users’ profiles but their friends’ list and their biographical information.
When the user approved it, these apps could access details such as users’ and their friends’ tags, likes and demographics.
Over a million people downloaded the Obama for America app. Around 300,000 people downloaded the personality survey app that ended up sending their data to Cambridge Analytica. The number of users’ data the firm reportedly gained access to (50 million) is much higher because it includes the users’ friends. The number of user data, it follows, was much higher for the Obama campaign, too."
Zjevně není tolik podstatné, co kdo dělá, ale kdo co dělá, aby se věci daly do pohybu.
Pak by několik desetiletí jejich investic bylo zmařeno a by ještě riskovali svou masivní podporou směrem k Hillary že vyhraje ona a ostrouhá teda ten jejich Trump. To nedává žádný smysl ... A jak vidíme, starší a profláklé struktury tyto elity protěžují dál proti Trumpovi, nedaří se mu splnit všechno, takže by byly proti sobě sami. Opět nedává smysl ... Resp. dává smysl dokud se nad tím někdo nezamyslí ...
Ještě bych dodal, že konečným cílem je kontrola nad obsahem, ne regulace. AI je zatím nedokonalá, tak banují.
Assange on AI
https://www.youtube.com/watch?v=t34m5T0yWuY
31. 5. 2019, 11:47 editováno autorem komentáře
Naopak, většina lidí v diskuzi regulacím fandí. Regulace sběru dat asi nikdy nepůjdou plošně vynutit. Regulace obsahu mohou znamenat konec internetových diskuzí a uživateli tvořeného obsahu obecně. Je populární nadávat na sociální sítě a google, ale málokdo si uvědomuje, že regulace zasáhnou všechny weby, ty menší v mnohem větší míře.
jestli projde tohle https://ec.europa.eu/commission/sites/beta-political/files/soteu2018-preventing-terrorist-content-online-regulation-640_en.pdf
tak bude možné zlikvidovat jakýkoliv web pomocí jediného komentáře. Velké platformy jako twitter, reddit, FB a google outsourcovaly kontrolu nad obsahem na Atlantic Council, takže jim moc nehrozí. Zasáhne to ostatní.
@afgsfdg
1) češi nechtějí aby EU byla silná proti jejich vládě. Proti silné EU navenek pokud vím nikdo nic nenamítá. Ani by to nedávalo smysl. Nicméně pokud jde o pomstu (Brexit) tak EU umí být silná a jednotná až by se člověk za takové chování styděl. Nakonec to stejně jenom ukázalo jak moc jsou členové opravdu přátelé.
2) úspěšnost politiky EU vůči korporacím zavisí na náladě českého obyvatelstva? Hezký příklad nechť jsou daňové ráje, hlavně ty v jurisdikci členských států EU ....
Ten odstavec "proč říci ne regulaci" dost plave na vodě, nebo se spíš potápí... Slovo "zřejmé" je tu podezřele často a v zavádějícím kontextu.
Důvody proč regulaci vývoje AI odmítnout jsou poměrně jasné.
Mně jasné nejsou.
Především většina zdrojů na její vývoj jde ze soukromých zdrojů
Že je něco placené z privátních prostředků žádným způsobem neimplikuje, že to nesmí nebo nemůže být regulované. Veřejné taxislužby jsou taky soukromé podniky a jsou regulované. Samotný prodej/obchod je otázka soukromých prostředků a přitom se reguluje např. zákazem prodeje alkoholu a tabákových výrobků mládeži, termíny svátků, kdy je prodej na velkých plochách zakázán, atd. Když budete investovat do vývoje Hyperloopu, taky budete svázán omezeními, která zabrání škodám na životech nebo přírodě...
bylo by zřejmě nevhodné do toho prostředí nějak regulativně vstupovat
To není vůbec zřejmé. Pokud bude někdo investovat soukromé prostředky do vývoje atomových zbraní, zcela určitě do toho stát regulativně vstoupí a nedovolí, abyste svůj vyvinutý jaderný arzenál prodal KLDR i když jste do toho dal své peníze...
Jakým způsobem by bylo možné omezovat vývoj AI v privátní oblasti ..., ale zřejmě by to bylo možné jen s největšími obtížemi.
Opět toto tvrzení není "zřejmé". Souhlasím, že bude náročné rozpoznat, jestli k přečinu došlo nebo ne, ale stejná situace je třeba i u vývoje chemických nebo nukleárních zbraní. Vývoj může být utajený, ale je-li nebezpečný, je nutné zavést pravidla a omezení, která eliminují rizika a v případě jejich porušení a odhalení povedou konatele k trestu.
Druhý důvod je spojený s konkurenceschopností ... Z hlediska rozvoje konkurenceschopnosti něco takového nedává touto optikou valný smysl.
Opět, AI se může v budoucnu stát zbraní hromadného ničení, podobně jako chemické nebo nukleární zbraně. Jedna věc je povolit výzkum a vývoj v kontrolovaných podmínkách (to může být klidně i v soukromých laboratořích), druhá věc je nechat tomu volný průběh. Je rozdíl mezi konkurenceschopností armád a konkurenceschopností firem.
Stejnou optikou bychom mohli tvrdit, že zákaz hraček z ftalátů nebo zákaz používání freonů či regulace vypouštěných spoldin z komínů je špatně, protože snižuje konkurenceschopnost. Přitom stačí pouze dodržovat zavedená pravidla i na dovoz. Čína ať si klidně vyrábí z ftalátů nebo pouští svinstvo do ovzduší. Pak by ale měl platit zákaz nebo omezení importu.
Jediný validní argument pro nezavedení nebo omezení regulace je ten, že občané by měli mít šanci kontrolovat vlastní stát, jestli na ně nezneužívá AI např. v prostředí sociálních sítí, jako se tomu ději v Číně.
Především většina zdrojů na její vývoj jde ze soukromých zdrojů
Jen bych doplnil k přechozímu, že to je údaj dost postavený na vodě. V systémech dotací, úlev, pobídek a přelévání pěněz bych byl s takovým tvrzením opatrný, i když je to třeba i pravda. Ale nemusí. Už jen číst si (bohužel už nevím kde), jaké dotace/úlevy v USA má třeba Google nebo Apple, je dost zajímavé. Jak pak oddělit jaké peníze kam jdou a na co. A to nemluvím o propojení výzkumu z univerzit používaném dál v soukromén sektoru. Je to jedno velké klubko.
> Především většina zdrojů na její vývoj jde ze soukromých zdrojů
to platí jen pro čistě softwarové aplikace s poměrně nízkými náklady na vývoj a rychlou návratností
aplikace AI v robotice a pokročilý AI hardware jsou tzv. capital intensive industries s návratností v řádu desítek let, do kterých jdou hlavně státní peníze.
zajímavá přednáška o nedostatku investic v Americkém průmyslu ve srovnání s Čínou
https://www.youtube.com/watch?v=qx-7Q3HEbDM
2. 6. 2019, 19:16 editováno autorem komentáře
Tak vzhledem k tomu že algoritmy stále obsahují pravděpodobnostní složku která v podstatě využívá k hodnocení svých počinů optimalizované kvantifikované statistické hodnoty podle kterých nakonec složitě hledá nějaké optimum, je celkem zřejmé, že jakmile zpracuje data z naší civilizace, to co píšeš se naplní ... speciálně pokud bude pracovat nad úlohami které těmto vzorům odpovídají.
Žádná taková naše filosofie neexistuje. Respektive máme podobnou, ale v ní není nic o "co je na nižší úrovni než my", takže je redukována na "vše je tu proto, aby nám sloužilo". S inteligencí a úrovní se nepočítá, tam je rozhodující příslušnost k živočišnému druhu. U některých lidí dokonce jen příslušností k nějaké rasové nebo ideologické menšině. A pokud se podíváte skutečně kolem sebe, tak bohužel uvidíte, že je tu řada jedinců, u kterých to je redukováno jen na sebe samé - všichni a všechno ostatní, včetně jejich dětí, existuje jen proto, aby jim to sloužilo.
Takže je celkem jedno, zda AI bude chytřejší nebo hloupější než my. To podstatné je, aby AI nezačala vyznávat utilitarismus. Dost na tom, že ho vyznává tolik lidí připravených "páchat dobro", ještě aby s tím začala AI. Obzvláště negativní utilitarismus by pro lidstvo představoval vážnou hrozbu.
Děkuji za pěkný článek.
O soužití lidí a silné umělé inteligence jsem zkusil napsat dvě takové experimentální povídky.
(Nevím, jestli se to sem úplně hodí, ale k tomuto tématu snad trochu ano.)
Hovory s U.I. - humorně (doufám) laděný dialog s chatbotem (krátký ebook)
https://mlok5.gitlab.io/hui/
Instance - vážnější povídka o vlivu vyhledávačů
https://mlok5.gitlab.io/instance.html