gumof pisze:
kodeki śmiecą,
W jakim sensie?
gumof pisze:
jeżeli aktualizujesz system M$ Media Player radzi sobie z proprietary codecs,
Średnio sobie radzi. MP3 mnie nie rajcuje. Zdecydowanie za mało.
gumof pisze:
reszta powinna być obsługiwana
w zamkniętym/opakowanym rozwiązaniu...
Zamknięte opakowanie najczęściej nie spełnia kilku oczekiwań np. gapless w audio.
Ponadto kodeki w zamkniętym oprogramowaniu często nie ma wielu pożądanych cech - np. likwidacja pre-echa - zmory we wszelkich MPEG'ach.
K-Lite ma odpowiedni instalator i konfigurator obsługi kodeków. Elastyczniejsze od tej mizeroty w Windows.
gumof pisze:
$Lic jest w innym miejscu i flashery wiedzą o tym,
Wystarczy że masz wersje która nie przechowuje SLIC'a a instalujesz nową wersję z taką funckjonalnością. I co wtedy? Wszechwiedzący flasher nie pomoże
Biosa upgrade'ujesz tylko wtedy jak jest wyraźny tego powód.
a najlepszym powodem do aktualizacji jest ten sam co do systmów
-bug'i pach'e, security issues... & so one...
Znajdź mi choćby jeden przykład bug'a wśrod wydanych poprawek w przeciągu 3 ostantich miesiecy, istotnego na działanie domowego komputera.
Aplikowanie poprawek nie powinno nigdy być robione z automatu w poważniejszych zastosowaniach (i w systemach produkcyjnych jest to zakazane!) a jedynie tylko te poprawki które poprawiają istotny błąd dla konkretnego systemu.
Poprawki poprawiaja ale tez i wnoszą nowe błędy, bugi.
Uczestniczyłem w migracji około 400 jednostek i serwerów na jeden system. (AIX, HP-UX -> AIX). Wszystko było świetnie do momentu gdy zaaplikowano aktualizacje i nagle systemie był w stanie udźwignąć kilkuset sesji terminalowych (a powinien 20 - 30 tysięcy udźwignąć) - powód błąd w bibliotece odpowiadającej z STDOUT.
Jakieś 30 - 40 godzin czasu pracy kilkudziesięciu osób zaangażowanych w migrację poszło się.....
Dla innego klienta - też wycofywano się szybciutko z przejścia na nową wersję bo okazało się że wprowadza to zbyt wiele problemów i zagrożeń dla normalnej ciągłej pracy.
Na koniec w sprawie poprawek - coś z dawnych czasów - pilotażowy cluster dla TPSA. HP-UX na maszynkach klasy V. Trzeba było zaaplikowac patcha dość istotnego ale niestety pojawił sie problem że serwery przypadkowo padały z powodu procesu idle nieużywanego procesora (nieużywanego - wytłumaczę bowiem firmie HP nie opłacało się montować tylko określonej liczy procesorów ale wszystkie, zaś przy dostawie pracownik uaktywniał tylko tyle procesorów, pamięci, cache za ile klient zapłacił).
Niestety trzeba było się pogodzić że przez ponad rok od czasu do czasu któryś z serwerów cluster'a zglebił zanim producent nie zabrał się do usunięcia bug'a.
jak nie programujesz i nie wiesz co to semafory, callbacki, hooki, directory watch'res -to nie zrozumiesz i nigdy nie zobaczysz co wpływa na wydajność.
I pisząc program zakładasz że każdy ma dokładnie taki sam system i środowisko? I co niezawodne są te aplikacje - bo wątpię jak coś takiego piszesz.
Najpierw trzeba przemyśleć strukturę programu i unikać zbytniego uzależniania się od szczegółów (poza ewidentnymi bykami)
-zmienia się to tak szybko że za pół roku ponownie będzie 150 aktualizacji, defragmentacja, $Uninstall~1Gb ...& so one
To np. raz na kwartał robisz odtworzenie partycji na dowolnym wolnym miejscu na dysku uaktualniasz i znowu robisz image.
Niestety Windows nie ma takiego genialnego rozwiązania jak AIX - gdzie backup jest jednocześnie instalacją która przy okazji dodaje wymagane pakiety dla innego sprzętu - przykład kopiujesz system z zainstalowanymi aplikacjami z takiego serwera i instalujesz na nowszym sprzęcie.
Procedury backup'u i odtwarzania proponowane przez M$ mają tę wade że po odtworzeni nie będzie to ten same system. Profile też nie będą dokładnie takie same. Tylko image klonuje system w przypadku Win.
Defragmentacja - a po co? A co gdy masz dysk SSD - też będziesz defragmentował? Nie podejrzewam ze uzywasz eFAT'a (FAT64)?
Od dekad istniały systemy plików gdzie nie istniał problem fragmentacji plików.
Obecnie złożoność windozy plus ogromna ilość zapisywanych plików tymczasowych w zasadzie stawia pod znakiem zapytanie sensowność defragmentacji, bo byś musiał dość często poświęcać na nią czas. Zaś i tak największy impact na wydajność dysku będzie miała pamięć wirtualna (też mało zaawansowane techniki użyte przez M$ - prymitywny swaping).
Wracając do img. - duży zysk jak nagle musisz od zera postawić padnięty system bo masz pilne zlecenie na karku.
"....Czasem jest na odwrót .." -czasami to czasami,
Wielokrotnie spotkałem się że nowy produkt ma czasem usunięta istotną funcjonalność. Nie tylko software na Win, ale też systemy embedded.
nie zaobserwowałem takich powikłań
Począwszy od samej Javy gdzie niekiedy banki zmuszają do aplikacji działającej tylko z jedną jedyna wersją!,
W jednej z poprzednich prac gdy testowałem aplikacje do znanego ubezpieczyciela - nie raz pojawił się problem że dostarczony/zakupiony komponent wariował po podmianie dll'a systemowego na nowszy. A i tak aplikacje miały tylko samo GUI bo przetwarzanie po drodze robiło tuxedo na unixie zaś dane dostarczał mainframe z db2.