Форум: "WinAPI";
Текущий архив: 2005.07.31;
Скачать: [xml.tar.bz2];
ВнизКак считать файл по битам? Найти похожие ветки
← →
wal © (2005-05-31 09:25) [120]
> [97] Grief © (30.05.05 22:32)
>Меньше чем два значения информация нести не может.
Угу. Какова вероятность встретить на улице динозавра? 50/50. Или встречу, или не встречу :) .
С уважением.
← →
wal © (2005-05-31 09:32) [121]
> [101] default © (31.05.05 00:18)
> а чё такое полубит?:)
А это, как ни странно, количество информации в сообщении, априорная вероятность которого равна ~0,70710678118654752440084436210485
С уважением.
← →
Игорь Шевченко © (2005-05-31 10:04) [122]
> С глупой теорией о том, что оптимальной системой счисления
> является система с основанием E я знаком
Мне в свое время за знание этой теории 5 баллов на экзамене поставили :) Так что, кто глупый - это еще большой вопрос. Преподаватель глупым не был.
← →
KilkennyCat © (2005-05-31 10:26) [123]Вот вам пример полубитов на практике - ПЗУ, которые однократно прожигались. Хоть тресни, но значение их ячеек уже не изменить, только читать. То есть, мы имеем ячейки памяти, где всегда ноль, всегда единица... :)
← →
GrayFace © (2005-05-31 16:04) [124]чип (27.05.05 18:48) [66]
Эк вас разобрало на глубинные теории. А реально кто-нибудь сравнивал скорость на реальных задачах при разных способах чтения: байтами, кластерами и т.д.
Чтение/запись по-байтно в 30-300 раз дольше, чем буфером.
Alex Konshin © (30.05.05 14:03) [92]
Например, в том же RRL мы имеем дробные значения колическва бит на каждую перемену фазы.
При этом быт делимым не становится. Его никто не делил. Просто построили отображение из фаз в биты.
А, чтобы не гадать на куче Nescafe, кто-нибудь может дать определение делимости?
Defunct © (31.05.05 2:28) [110]
> говорить об энтропии применительно к биту
Вот и сам выразился некорректно. Имел в виду: говорить о бите как об энтропии.
О бите, как о функции состояния, равной тому-то в равновесных процессах? Интересно, что же вы имели в виду?
Defunct © (31.05.05 4:20) [117]
Теории бывают неудачными и неприменимыми. Примером может послужить Теория Относительности уважаемого Эйнштейна. (применение этой теории дальше фантастических рассказиков и красочных фильмов не ушло)
В школу! (c)
← →
Defunct © (2005-05-31 20:21) [125]GrayFace © (31.05.05 16:04) [124]
Имел в виду что нельзя бит отождествлять с количеством информации в сообщении. Сожмем мы файл или не сожмем так или иначе он будет состоять из неделимых едениц информации - бит.
Игорь Шевченко © (31.05.05 10:04) [122]
Глупый не преподаватель, и не тот кто разработал теорию, и не тот кто ее знает, а сама теория глупая, т.к. бесполезная.
wal © (31.05.05 09:32) [121]
Может хватит постить какие-то взятые от фонаря цифры?
← →
Завистник (2005-05-31 20:29) [126]Разок меня забанили, но рискну еще раз предложить модераторам перенести этот ??? в "другую" ветку
С уважением
← →
app © (2005-05-31 20:36) [127]Вопрос по тематике конференции, обсуждение в основном тоже.
Твое сообщение нет.
← →
Igorek © (2005-05-31 21:03) [128]Defunct © (31.05.05 20:21) [125]
Может хватит постить какие-то взятые от фонаря цифры?
логарифмы по основанию 2 //тебе уж намекают и так и сяк
← →
Defunct © (2005-05-31 21:31) [129]Igorek © (31.05.05 21:03) [128]
Это такой новый модный стиль общения - намеками? Мне ваши намеки не нужны. Хотите чтобы вас понимали - говорите по делу, простым и понятным языком.
И что это будет 0.707.... log2(??).
← →
wal © (2005-06-01 09:05) [130]
> [125] Defunct © (31.05.05 20:21)
> wal © (31.05.05 09:32) [121]
> Может хватит постить какие-то взятые от фонаря цифры?
Любое из приведенных мной чисел (а не цифр) я могу обосновать формулой, но если Вам теория информации не знакома, и, кроме того, обьяснения Вы воспринимаете как упреки, то и формулы Вам ни о чем не скажут.
> [129] Defunct © (31.05.05 21:31)
> Это такой новый модный стиль общения - намеками?
В [87] я вроде объяснил, что такое бит, если Вам это показалось настолько тонким намеком, что Вы предпочли его не заметить, то я не виноват :)
> И что это будет 0.707....
Объясняю на пальцах:
0.5(бит)=log2(sqrt(2))
1/sqrt(2)~=0.707...
С уважением.
← →
Defunct © (2005-06-02 00:55) [131]> кроме того, обьяснения Вы воспринимаете как упреки,
Вовсе, нет. Я просто веду беседу в интересном для вас русле.
> то и формулы Вам ни о чем не скажут.
Скажут, вы же их не приводите, а приводите какие-то примеры со сжатием, которые кстати об информативности одного бита ничего не говорят. Приводите какие-то цифры. Может быть есть справочник, где написано:
> а чё такое полубит?:)
А это, как ни странно, количество информации в сообщении, априорная вероятность которого равна ~0,70710678118654752440084436210485
Можно ли оспорить это:
1. количество информации которое несет любой случайный бит данных всегда одинаково.
2. в двочных системах бит неделим.
> Объясняю на пальцах:
Разве это на пальцах?
0.5 бит :)
число 0.707.. :)
Вы там выше сказали что это вероятность, но ведь это нонсенс, определять количество информации через "априорную вероятность", кстати, "априорную вероятность" чего?
А вы говорите на пальцах ;>
← →
Eraser © (2005-06-02 00:59) [132]Kilkennycat © (31.05.05 00:37) [104]
Один медиатор стоил полкопейки. Их можно было купить только два сразу, но факт остается фактом, цена одного - полбита.
Ё-моё! Щас самый простенький 5 р. стОит ((
← →
Eraser © (2005-06-02 01:15) [133]Если придерживатся теории wal"а о "смысловой" нагрузки бита (с учётом сжатия) то что же такое тогда Байт? ;-)
И всё таки единицы измерения информации называют по количественному признаку, и следовательно по этой классификации бит - это наименьшее КОЛИЧЕСТВО информации.
0 занимает столько же памяти сколько и бит
1 занимает столько же памяти сколько и бит
← →
KilkennyCat © (2005-06-02 01:25) [134]
> наименьшее КОЛИЧЕСТВО информации
думал, думал, и так и не придумал, где еще есть данное ограничение.
кукую единицу не возьми, к ней и кило, и нано приставить можно... какой уникальный - бит.
← →
Eraser © (2005-06-02 01:39) [135]KilkennyCat © (02.06.05 01:25) [134]
Дэк килобиты бывают! А вот с нанобитами небольшая проблемка ;-)
← →
Defunct © (2005-06-02 02:47) [136]Eraser © (02.06.05 01:39) [135]
Так KilkennyCat как раз об этом и говорит ;>
> какой уникальный - бит.
"Теория информации и кодирования" как раз решает этот вопрос, и можно применять понятие "нано-бит" информативности в больших последовательностях данных. Например если кодировать каждый символ русского алфавита одним байтом, то информативность одного бита при таком кодировании будет 33/256 бит. Уважаемый wal почему-то пытается оторвать Теорию Информации от Кодирования. Но эти вещи неразрывны, поэтому мы так долго с ним спорим.
Если же убрать кодирование, тогда в другой теории, например широко применяемой в "Компьютерной Арифметике" - бит неделим.
← →
wal © (2005-06-02 10:51) [137]> [131] Defunct © (02.06.05 00:55)
> > кроме того, обьяснения Вы воспринимаете как упреки,
> Вовсе, нет. Я просто веду беседу в интересном для вас русле.
Я рад, хоть мы и не нашли (пока) общий язык, но, по крайней мере не в обиде друг на друга :)
> > то и формулы Вам ни о чем не скажут.
> Скажут, вы же их не приводите, а приводите какие-то примеры
> со сжатием, которые кстати об информативности одного бита
> ничего не говорят.
Например здесь есть формулы http://en.wikipedia.org/wiki/Information_theory кстати там как раз об энтропии очень неплохо сказано.
> Можно ли оспорить это:
> 1. количество информации которое несет любой случайный бит
> данных всегда одинаково.
Можно. Только не случайный бит, а заранее определенный. Причем определена интерпретация каждого из всех (двух) значений бита. Случайным является только само значение бита.Пример, близкий к жизни.
Допустим, Вы пригласили меня в гости. Предварительно я вам ответил, что почти наверняка (с вероятностью 95%) приеду. Окончательный ответ дам за 1 час в виде бита 1-приеду, 0-не приеду. Естественно, я, как честный и обязательный человек, Вам этот бит в назначенный срок передал, а вы его приняли. Но если я передал 1, то информации Вы получили мизер, ибо и так были почти наверняка уверены в моем приезде. Но если я передал 0 - то количество информации в этом бите просто огромно, ибо я поломал Вам все планы на вечер, куча денег пропала впустую (стол накрыт, баня истоплена, девочки заказаны) и т.д. и т.п. Если же я вам заранее сказал что 100% приеду, то дополнительное напоминание об этом информации не несет вовсе, а если я после этого все же отказался, то тут уже не об информации речь, а о том, какой я гадкий обманщик, ибо не смог оценить вероятность "срыва" поездки и был очень самоуверен.
А любой случайный бит данных информации не несет вовсе, так как информация, это не только данные, но еще и соглашение об интерпритации этих данных. Хотя в этом случае любой случайный бит данных несет абсолютный ноль информации :) , тогда это утверждение не оспоришь :)
> 2. в двочных системах бит неделим.
С этим спорить сложно, но уточню - бит данных, а не бит информации.
> > Объясняю на пальцах:
> Разве это на пальцах?
> 0.5 бит :)
> число 0.707.. :)
> Вы там выше сказали что это вероятность, но ведь это нонсенс,
> определять количество информации через "априорную вероятность",
> кстати, "априорную вероятность" чего?
Априорную вероятность именно этого события из множества всех возможных в данном случае. В указанном выше примере - вероятность того, что я в гости таки приеду.
> А вы говорите на пальцах ;>
Ну извиняйте, не лектор я, как смог, так обьяснил :)
> [132] Eraser © (02.06.05 00:59)
> Kilkennycat © (31.05.05 00:37) [104]
>
> Один медиатор стоил полкопейки. Их можно было купить только
> два сразу, но факт остается фактом, цена одного - полбита.
>
> Ё-моё! Щас самый простенький 5 р. стОит ((
А еще я как-то тоже при царе Горохе два карандаша за 5 копеек покупал :)
> [133] Eraser © (02.06.05 01:15)
> Если придерживатся теории wal"а о "смысловой" нагрузки бита
> (с учётом сжатия) то что же такое тогда Байт? ;-)
Не моей - Колмогорова. Хотя польщен :)
А байт - это просто условность, информацию байтами не меряют, только данные. Хотя если считать байт, как нечто, принимающее 256 значений, некий 256-ит, то и информацию байтами померять можно, взяв Log256(1/p).
> И всё таки единицы измерения информации называют по количественному
> признаку, и следовательно по этой классификации бит - это
> наименьшее КОЛИЧЕСТВО информации.
> 0 занимает столько же памяти сколько и бит
> 1 занимает столько же памяти сколько и бит
Не информации, а данных, причем только в двоичных системах.
> [134] KilkennyCat © (02.06.05 01:25)
>
> > наименьшее КОЛИЧЕСТВО информации
>
>
> думал, думал, и так и не придумал, где еще есть данное ограничение.
> кукую единицу не возьми, к ней и кило, и нано приставить
> можно... какой уникальный - бит.
Например количество нейтронов в ядре атома ;)
> [136] Defunct © (02.06.05 02:47)
> Eraser © (02.06.05 01:39) [135]
> ...
> "Теория информации и кодирования" как раз решает этот вопрос,
> и можно применять понятие "нано-бит" информативности в больших
> последовательностях данных. Например если кодировать каждый
> символ русского алфавита одним байтом, то информативность
> одного бита при таком кодировании будет 33/256 бит. Уважаемый
> wal почему-то пытается оторвать Теорию Информации от Кодирования.
> Но эти вещи неразрывны, поэтому мы так долго с ним спорим.
>
> Если же убрать кодирование, тогда в другой теории, например
> широко применяемой в "Компьютерной Арифметике" - бит неделим.
Я Вам выше привет пример, если не нано-, то мили-бита информации и в короткой последовательности из одного бита данных.
А кодирование - это всего лишь перенос данных с одного алфавита на другой. Количество данных при этом может измениться (как в большую, так и в меньшую сторону), количество информации останется прежним.
Еще один пример, с переводом на более понятные единицы измерения :) :
Пошел я в магазин, увидел там диск с кучей всего такого хорошего, что его цена выглядит просто смешной. Я его, естественно, купил и отнес домой. Там посмотрел все тчательно и похвалил себя за потраченные с пользой деньги.
Год спустя я уже об нем почти забыл и снова увидел в магазине этот диск. Хотел уже было купить, но потом вспомнил, что он у меня уже есть. И ценность этого диска для меня сразу упала до нуля, и возьму я его только при соответствующей (нулевой) цене, или еще дешевле (если мне еще и приплатят) :) . А почему упала ценность? Ведь ДАННЫХ как было 650Мб, так и осталось. Просто ИНФОРМАЦИИ для меня на этом диске никакой нет, а значит и платить не за что.
С уважением.
← →
Defunct © (2005-06-03 00:11) [138]wal © (02.06.05 10:51) [137]
Да видимо я был не прав, что согласился с высказыванием
Drakosha © (27.05.05 14:37) [44]
Бит - неделимая еденица информации.
Надо было уточнить сразу, что речь идет не об информации, а о данных. Тем, не менее, большое спасибо за приятную беседу. Было очень интересно.
:)
PS: убрать аксиому о неделимости бита (данных) и Булева алгебра вместе с компьютерной арфметикой развалится в тар-тарары..
← →
KilkennyCat © (2005-06-04 00:58) [139]
> Булева алгебра вместе с компьютерной арфметикой развалится
> в тар-тарары..
Ну почему же развалится, просто перерастет в что-нибудь другое. Как уже здесь упоминавшаяся теория Эйнштейна изменяет классическое (если не ошибаюсь, называют Ньютоновским?) представление физики.
← →
PAVIA © (2005-06-05 01:23) [140]А что никто про QBIT не вспомнил?
← →
KilkennyCat © (2005-06-05 01:29) [141]
> А что никто про QBIT не вспомнил?
не катит, он имеет два состояния, так что абсолютная классика.
Страницы: 1 2 3 4 вся ветка
Форум: "WinAPI";
Текущий архив: 2005.07.31;
Скачать: [xml.tar.bz2];
Память: 0.8 MB
Время: 0.044 c