Nicméně rovněž pracuji na jednom agregátoru informací z webů a vždycky když přemýšlím nad tím zda informace „kradu“ anebo podobných úvahách stačí vzpomenout vyhledávače, ty přeci rovněž informace „negenerují“. Prostě tam kde není zpracování informací omezeno flagem robots IMHO ani původní přístup Webu 1 přece není závadný či je to jinak?
Chtěl bych dodat že samozřejmě zdroj ve většině případů (těch nekomerčních) zachovávám. Nebo např. Heureka.cz zveřejňuje který obchod jí poslal která XML? To že moje zdroje (zatím) nejsou schopny XML produkovat neznamená že nebudu čekat až polovina poskytovatelů vyleze z informačního středověku to bych mohl čekat věčně. Můj projekt je podobného rázu
Jasně, v tomto případě ale mícháme 2 typy informací dohromady. Jednak to že někdo prodává nějaký produkt to je věc která zveřejněna být musí jinak by služba postrádala smysl že, pak ale je tu ta druhá část a v tomto případě klíčová a to např. selekční kritéria nebo rozšířený popis produktu. Fakt že zboží je červené se na Heuréce nedozvím z jakého přesně obchodu nebo zdroje tuto informaci čerpá, přesto právě selekční kritéria (i když na He značně okleštěná a nedokonalá) dělají v tomto případě onu přidanou hodnotu o které se bavíme. A to je i případ mého projektu. Stále si myslím, že sgrábnout a zpracovat takovéto informace z webu smím, nikde jinde pohromadě nejsou a ono zpracování a naservírování uživateli v tomto případě nelze považovat za krádež nebo někdo zde myslí že ano?