симметиричное шифрование
Доброго здравия всем присутсвующим!
А программа позволяет работать с каким-нибудь симметричным алгоритмом шифрования файлов или сообщений?
Спасибо.
|
||||||||||||||||||||||||||
|
||||||||||||||||||||||||||
Нормы пользования. Некоторые права на материалы сайта защищены по условиям лицензии CreativeCommons. Движок
openSpace 0.8.25a и дизайн сайта © 2006-2007 Vlad "SATtva" Miller.
|
||||||||||||||||||||||||||
комментариев: 510 документов: 110 редакций: 75
В одной из публикаций в интернете читал, что при нахождении коллизий в нестойких хеш-функциях противнику легче определить симметричный ключ шифрования, вырабатываемый из пароля. Интересно вот что. При поиске коллизий по открытому тексту для подмены цифровой подписи все кажется более менее понятным – криптоаналитик использует открытый текст, а так же найденные «дыры» алгортима хеша для получения коллизии. Можно ли упростить получение симметричного ключа, зная способ определения коллизии? Ведь ключ злоумышленнику изначально неизвестен, как открытый текст. На основе чего тогда возможен поиск ключа, если нет исходных данных для поиска? Я могу лишь предположить, что для поиска будет использоваться тот же полный перебор, но исходя из информации из топика «хеш-функции», можно будет перебрать лишь некоторую часть парольных фраз/паролей общим пространством гораздо меньшим, чем до достижения «естественной» коллизии (получается, что нестойкие хеш-функции либо имеют очевидные дыры, которые можно вычислить криптоанализом, либо просто имеют большее чем задумано создателями алгоритма количество в несколько ином смысле естественных коллизий, которых может быть можно найти еще больше уже и криптоанализом). Или я ошибаюсь? Т.е. получается, что стойкость шифрования против полного перебора резко уменьшается. Заслуживает ли информация, которую я читал, внимания?
Спасибо.
p/s я сделал допущение, что "iterated and salted key setup" не применяется.
Насколько правомерно для подсчета условной энтропии ключа исходить из приведенного ниже правила и проводить аналогии с длиной двоичного ключа
Энтропия = K ^ N,
Где К – количество знакомест
N – количество символов
Например если использовать случайный пароль из букв одного регистра длиной 10 символов, то энтропия будет равна 30^10 = 590490000000000, что примерно соответствует ключевому полю в 47…49 бит, т.е. шифру с такой длиной ключа.
Если использовать случайный пароль из букв разных регистров длиной 10 символов, то энтропия будет равна 60^10 = 604661760000000000, что примерно соответствует ключевому полю в 57…59 бит, т.е. шифру с такой длиной ключа.
И так далее, применительно к длине пароля 12, 14 … символов.
комментариев: 9796 документов: 488 редакций: 5664
Выберите двоичное основание и подберите по нему ближайший результат.
Например:
2^6=64
(2^6)^10=2^60=1152921504606846976
2 Вий: в системе может рассматриваться какой угодно вид атаки. Например атака со связанными ключами. Если ключи связаны, то при коллизии их хэши тожу могут быть связаны.
Если считать что кажддый символ 7 бит, то получим 7*10=70 бит.
Разница очень большая. Как правильно считать практическ
комментариев: 9796 документов: 488 редакций: 5664
Сравните (2^5)^10 и (2^6)^10
50 и 60 бит.
комментариев: 510 документов: 110 редакций: 75
Как я понимаю, это (128^2)*(128^2)*(128^2). Верно это или нет?
комментариев: 1060 документов: 16 редакций: 32
Число возможных позиций – это число сочетаний без повторений, т.е. n!/m!/(n-m)!, где n – общее число бит, m – число неизвестных бит.
Далее ещё нужно учесть число возможных значений этих трёх бит – это 2^3 или 2^m в общем случае.
Итого: 2^(m)*n!/m!/(n-m)! = 2731008 комбинаций.