Oba dva případy jsou prakticky stejné. Lidská práva(zde konkrétně autorský zákon, zákony mlčelivosti u profesí) na AI prostě neplatí, protože prostě není člověk, což je docela logické. Stejné je to i u nějaké řízené střely ovládané AI, že odpovědnost není na AI ale na člověku co dal příkaz k odpálení. Což bude docela zajímavé až třeba AI bude např. provádět diagnostiku nemocného a zmýlí se a člověk následkem toho umře. Evidentně právní svět čekají nové výzvy k vybudování nové legislativy řešící tuto problematiku. Takže se dá čekat boj různých stran o právní rámce které to budou zastřešovat, níž se to dotýká, neboť každá se bude snažit prosadit variantu pro ní nejvýhodnější(byli by blbý kdyby ne).
Tak oni se doposud nedohodli ani u samoriditelnych aut.. a musite byt jako "ridic" ve strehu, ze az se neco semele, at to na vas ten stroj mohl legitimne hodit a zbavi se sve odpovednosti :D
9. 3. 2026, 11:59 editováno autorem komentáře
Akorát že dohodli. Je to podle úrovně autonomie SAE. Nižší úrovně do 2 včetně jsou prostě asistant a zodpovědný je vždy řidič (nebo prokaž, že ten asistant byl vadný a byl příčinou nehody, protože třeba zadupl brzdu - s čímž nic neuděláš).
Ve 3 je to trochu zamotanější s povinností převzít řízení do nějaké doby, nečumět do mobilu, atd., viz třeba naše legislativa: https://md.gov.cz/Media/Media-a-tiskove-zpravy/Od-noveho-roku-mohou-na-ceske-silnice-vozidla-s-po. A auto důkladně a průkazně loguje, co se kdy dělo, takže těžko na tebe něco hodí.
V úrovních 4 a 5 se s řidičem aspoň za určitých podmínek vůbec nepočítá, takže na koho by to vůbec mělo něco házet?
9. 3. 2026, 13:29 editováno autorem komentáře
Za stroj je odpovědný ten, kdo ho uvedl do pohybu. Jestli jsi samořídícímu autu řekl "odvez mě domů" a usnul, jsi odpovědný za všechno, co cestou napáchá. Stejně jako za kámen hozený z mostu.
Ale to ještě není přece právní dokument známí jako "Prováděcí vyhláška" kterou vždy zpracovává ministerstvo pod jejichž jurisdikci daný právní rámec spadá. I když se jedná texty umístěné na webu ministerstva dopravy a vychází to s usnesení vlády 234 tak to není žádná pořádná legislativa(regulace). Podle přiloženého usnesení se jedná o to že právě daná problematika se začne(nebo u začala) se řešit.
Dle mě první vlaštovka ale rozhodně se nejedná právní rámec který plně pokrývá všechny eventuality které problematika samořiditelných aut stvoří(stvořila).
Napr. u Tesly mate privolani z parkoviste. Ale je tam live feed a jste zodpovedny za nehody, ktere provede vuz, protoze jste nezmackli vcas STOP. Pritom ta funkcionalita je taky deklarovana jako samorizeni.
Problem tedy prakticky je - ze vyrobci nedosahuji funkcionalitou na nejake SAE urovne, ale radi prodavaji funkcionalitu ktera je prehajpovana.
Tim, ze deklarujete existenci SAE skatulek, jste problem nevyresil. Ten se vyresi az vyrobce bude donucen spravne inzerovat a indikovat do jake kategorie vuz vlastne spada... a k tomu jsme myslim porad daleko. Nejlepe se totiz kseftuje se smelinama..
Tak Muskovy firmy jsou nafukováním leštěných prdů vyhlášené. Z toho live feedu, kór ještě na mobilu, toho moc poznat nepůjde.
Dá se to vlastně zobecnit na DDOS útoky, kdy odpovědnost za škody se přenese na poskytovatele technického zázemí. Tedy rodiny, co si koupily výrobek, který je hacknutelný. Je odpovědnost občana přenesena v okamžiku koupě onoho zařízení? Nebo na výrobce onoho zařízení? ISP, co umožnil nosičem ono hacknutí? A nyní v LLM sféře, je to stejný případ?
Pokud mi někdo ukradne odemčené auto a někoho s ním zabije, proč by měli postihovat mě? Ten člověk s napadeným routerem je oběť stejně jako cíl toho DDOS.
Ale pokud k tomu došlo kvůli známé chybě, zařízení je v záruce a výrobce se vykašlal na updaty, měla by jít část zodpovědnosti za ním, protože věděl o problému, a mohl mu předejít.
> Pokud mi někdo ukradne odemčené auto a někoho s ním zabije, proč by měli postihovat mě?
Protože bylo odemčené? Zamknout auto nic nestojí a zastaví to ty nejtupější a nejneschopnější lumpy. Třeba jako smažky, kterým už je všechno jedno.
Kašlat na zamykání auta samozřejmě není zabití, ale v pořádku to taky není.
tak hlavně máš zákonnou povinnost auto zabezpečit proti zneužití. a trestán budeš ne za tu nehodu jako takovou, nýbrž právě za zanedbání zákonné povinnosti a z toho plynoucí spoluodpovědnost za následek.
A to bych chtěl vidět, jak to zabezpečení provedeš :-D
Ukrást Trabant dá teda podstatně větší práci!
"Zamknout auto nic nestojí a zastaví to ty nejtupější a nejneschopnější lumpy. Třeba jako smažky, kterým už je všechno jedno."
kolko smaziek vie dnes nastartovat auto bez kluca? ti co to vedia, tak tym je uplne jedno ci je to auto zamknute, alebo odomknute
Tak on není úplně dobrý nápad slepě věřit technice (což by jistě potvrdili operátoři co zažili havárii na TMI, příčina: špatně realizovaný simulátor bloku-> špatné tréninkové návyky -> doslova tam operátoři byli "cvičené opice", co si kvůli "stresové slepotě" a horšímu výcviku neuvědomovali co se děje, samozřejmě i kvůli nedostatkům v řízení komponent). Vzdělání-expertízu člověka nic nenahradí....
jenomže v tom prvním případě ten maník byl autorem AI agenta, který obrázek vytvořil. tedy je držitelem práv na toho agenta, a jeho použitím tedy i na dílo.
protože POKUD použitím softwarového nástroje (a je jedno jak "inteligentního nebo tvůrčího") ztrácí práva na výsledné dílo, je nutno tuto logiku úplně stejně aplikovat na VŠECHNY takové případy. tedy i na produkty všech ostatních SW nástrojů pro manipulaci obrazové nebo zvukové nebo jakékoli jiné informace, kde dílo nevzniká PŘÍMOU interakcí člověka s danou zpracovávanou informací, tedy na veškeré výstupy photoshopu, canvy, DaVinci Resolve, Blenderu, CADu, Audacity apod., dokonce i programovacích nástrojů i např Wordu. protože VŽDYCKY jde o výstupy softwaru. dokonce by se to dalo při striktně formalistickém výkladu aplikovat i na notepad.
tedy podle logiky toho rozhodnutí práva na výstup buď patří tvůrci softwaru místo jeho uživateli, nebo naopak nepatří vůbec nikomu.´
v druhém případě naopak jde o to, že ToS je jasně stanoveno, že výstupy nejsou výhradním majetkem uživatele, a tedy pokud požadoval důvěrnost, neměl použít tento nástroj, nýbrž jiný k tomu určený. jenže to by ho asi stálo peníze. a to by nesměl bejt nemocnej, protože za vytunelovaných 150M$ si mohl klidně koupit nějakou firmu, která by mu to důvěrně udělala.
AI samozřejmě není člověk, na to snad není judikát potřeba.
Ale ten druhej případ mi přijde zajímavej:
Policie zadržela Heppnerův počítač, na němž byl také záznam diskuse Heppnera s AI Claude, ve kterém se ptal, jak by měl postavit svoji obhajobu. Advokát Heppnera říká, že tato diskuse nesmí být předložena soudu jako důkaz, protože se na ni vztahuje mlčenlivost ve vztahu advokát-klient. Soudce však minulý měsíc rozhodl, že AI nemůže být advokátem a mlčenlivost se tedy na diskusi nevztahuje.
Pokud je konzultace s profesionálem chráněna mlčenlivostí, tak mi není úplně jasné zda je vlastní výzkum na to téma principiélně odlišný.
Používáme počítače jako "prodloužení mozku" ať už na psaní poznámek a třídění myšlenek, nebo dohledávání nových informací. A pak se nabízí otázka, kde přesně je ta hranice soukromí, kam se už zákon nemá domáhat násilím.
A až budeme mít ty čipy v mozku :-), tak jestli se bude právo nevypovídat vzahovat na logy a záznamy z nich.
kdyby v tom prvním případě nebyl jouda, mohl to obratem napadnout tak, že ani obrázek vytvořený či upravený / dokončený na počítači není výtvorem člověka, protože je výtvorem toho softwaru. takže práva nemůže držet ten kdo tahal za myš / stylus, nýbrž výhradně buďto držitel práv na kreslicí program, nebo vůbec nikdo. protože photoshop / canva / photopea je, stejně jako to co si naprogramoval účastník řízení, pouze software pro manipulaci obrazové informace. a instrukcí / tvůrčím postupem je už jeho naprogramování, bez kterého se vytvoření díla neobejde, protože by bez něj nevzniklo.