id: Гость   вход   регистрация
текущее время 20:44 04/10/2024
Владелец: SATtva (создано 14/09/2006 22:50), редакция от 12/09/2009 16:05 (автор: SATtva) Печать
Категории: криптография, сайт проекта, статьи, управление ключами, атаки, полный перебор
https://www.pgpru.com/Библиотека/Статьи/ДлинаКлючаПолныйПеребор
создать
просмотр
редакции
ссылки

Длина ключа и его полный перебор


Оглавление документа:

Введение

Что такое бит?

Бит является фундаментальной единицей информации. Он может принимать значения 0 или 1. В течение сорока последних лет компьютеры работают с бинарными данными, то есть с наборами битов (а не с цифрами от 0 до 9, как это принято у людей; можно сказать, что компьютеры имеют только два пальца). Биты позволяют кодировать целые числа, символы, и т.д. Вся информация, проходящая через компьютер, превращается в биты.


8 бит образуют байт; это дает 256 комбинаций и позволяет кодировать числа от 0 до 255 или символы (включая разницу между прописными и строчными буквами, символы с надстрочными знаками и другие).


1024 байта образуют один килобайт (Кб). 1024 используется вместо 1000 так как 1024 является степенью числа 2, то есть "круглым" числом, если работать по основанию 2. 1024 килобайта образуют мегабайт (Мб), или 1048576 байт. 1024 мегабайта образуют гигабайт (Гб), или 1073741824 байта. 1024 Гб образуют терабайт (Тб). Дальнейшее умножение малоупотребительно, т.к. дорогостояще со всех точек зрения. Типичная емкость жестких дисков, широко распространенных в настоящее время компьютеров, составляет десять гигабайт. Развитая сеть может пропускать десять мегабайт в секунду между двумя машинами.

Что такое криптографический ключ?

Криптографические операции, такие как шифрование и подписание данных электронной цифровой подписью, могут быть осуществлены только определенными лицами, располагающими некоторыми секретами. В прошлые века этим секретом был сам способ преобразования данных. Однако более рационально и более эффективно концентрировать этот секрет в виде набора битов, а сам алгоритм делать общедоступным.


Действительно, сохранять в тайне алгоритм проблематично, и, кроме того, необходима численная оценка его безопасности. Сам факт публикации алгоритма позволяет "бесплатно" получить признание его надежности криптографическим сообществом.


Ключ, таким образом, является концентрацией секрета, этот набор битов является "эссенцией" конфиденциальности.

Что такое полный перебор?

Взломать криптосистему – значит суметь осуществить некоторые операции, требующие (в теории) знания секрета (ключа), не имея информации о последнем. Наиболее полным взломом является взлом, в результате которого становится известен ключ, что дает взломщику те же полномочия, что и законному владельцу ключа.


Полный перебор является наиболее простым методом этой точки зрения: он состоит в том, чтобы пробовать все ключи один за другим до тех пор, пока не найдется правильный. Этот метод является наиболее общим, и может быть распараллелен (вычисления могут быть распределены на много машин). Кроме того, он наиболее реалистичен: если рассматривать случай симметричной системы шифрования (которая ставит в соответствие блоку, состоящему из нескольких байтов, другой блок той же длины, но преобразованный к "нечитаемому" виду при помощи ключа), достаточно перехватить пару открытый текст/зашифрованный текст, то есть блок из несколько байтов и соответствующих им зашифрованных. Например, если передается картинка в формате JPG, то начало сообщения представляет собой стандартный заголовок JPG, формат которого всем хорошо известен.


С точки зрения статистики, надо перебрать примерно половину возможных ключей, прежде чем найдется правильный. Если длина ключа составляет 56 битов, это означает, что в среднем необходимо провести 255 итераций, что составит 36028797018963968.

Является ли полный перебор единственно возможным методом криптоанализа?

Нет. Но другие методы сильно зависят от конкретного алгоритма. Некоторые, такие как линейный или дифференциальный криптоанализ, требуют огромного числа пар открытый/зашифрованный текст, представляя, таким образом, чисто теоретический интерес.


Кроме того, существуют криптосистемы (в частности, системы асимметричные, называемые еще "криптосистемами с открытым ключом"), для которых все сочетания битов не образуют правильного ключа. Типичный пример – RSA, где ключ представлен большим числом, полученным из двух больших простых чисел. Совокупность наборов из 1024 бит, которые являются двоичной записью этих чисел, гораздо меньше 21024. Полный перебор абсурден в этом случае.

128-битный ключ в два раза устойчивее к взлому, чем 64-битный?

НЕТ! Это распространенная ошибка. Каждый дополнительный бит удваивает количество возможных ключей и затраты на полный перебор. Ключ длиной 128 бит является в 18446744073709551616 раз более сложным для подбора, по сравнению с ключом длиной 64 бита (который уже не назовешь совсем легким).

PGP должно быть очень устойчив, так как использует ключи 1024 бита

Стоп! Давайте разберемся! "1024 бит" в PGP – это ключ RSA или DSS, то есть ключ асимметричного алгоритма. Атака методом полного перебора не самый лучший вариант в этом случае.


Кроме того, асимметричные алгоритмы относительно медленны, и "внутри" PGP использует симметричный алгоритм (исторически IDEA, затем CAST), размер ключа которого составляет 128 бит.

Текущее положение дел

Какова максимальная длина ключа для симметричных криптосистем, которая поддается программному взлому методом полного перебора?

Известно, что два ключа по 56 бит были подобраны полным перебором на обычных компьютерах типа PC. Специализированная машина (построенная EFF) помогла для второго ключа, выполнив приблизительно треть общего объема вычислений.


Ключи были для алгоритма DES. Качественный ПК или рабочая станция могут перебирать с максимальной скоростью нескольких миллионов ключей в секунду. Если принять среднюю скорость за один миллион ключей в секунду на машину, то легко увидеть, что для подбора ключа 10.000 машин должны в среднем затратить 42 дня.


Полный перебор ключа длиной 64 бита для RC5 (для которого сложность полного перебора несколько выше, чем для DES) в настоящее время продолжается, и будет длиться, по крайней мере, еще нескольких лет. Напоминаем, что подбор ключа размером 64 бита является в 256 раз более трудоемким, чем подбор ключа длиной 56 бит.

То же, с использованием специальной аппаратуры?

Американская группа EFF инвестировала 250.000$ в создание специализированной машины под названием "Deep crack" ("глубокий взлом"), которая в состоянии перебрать все ключи алгоритма DES приблизительно за три дня. В ней использованы специализированные процессоры, которые невозможно применить для целей, отличных от взлома DES (в частности, они ничего "не знают" об RC5).


Все остальные машины того же рода – из области слухов. DES используется уже более 20 лет, и можно предположить, что, вероятно, машине EFF предшествовали другие прототипы, разрабатываемые секретными службами. В любом случае, скоро уже 15 лет периодически упоминаются принципы построения такой машины.

А для несимметричных криптосистем?

В принципе, существуют две математические задачи, используемые в асимметричных шифрах: факторизация и дискретное логарифмирование. RSA использует первую, DSS вторую. Другие упоминаемые задачи (вариации двух предыдущих, использование эллиптических кривых, задача об укладке ранца, минимизация сети (задача коммивояжера), обратное распознавание (permuted perceptrons problem – см. примечания)) относительно редко используются в настоящее время.


Рекорд факторизации датируется 22-м августа 1999г.: число размером 155 десятичных цифр (512 бит) было факторизовано за шесть месяцев вычислений на парке приблизительно из 600 машин, некоторые из которых могут быть квалифицированны как "быки" (в частности, Cray с 2 Гб памяти). Примененные алгоритмы гораздо более сложны, чем полный перебор, и требуют большого количества оперативной памяти с хорошей скоростью доступа.


Дискретное логарифмирование менее исследовано, на его взлом осуществлено меньше инвестиций, чем на факторизацию. Рекорд – порядка 95 десятичных цифр.

Что относительно "кофейника" Шамира?

Представленный на Eurocrypt'99 в Праге (в начале мая 1999), этот аппарат ускоряет физическими средствами исследование гладких чисел (то есть полученных произведением только маленьких простых чисел), которые получают обычно методом решета. Эти числа являются основой нескольких алгоритмов факторизации и решений задачи дискретного логарифмирования.


Сам аппарат еще не построен, описаны только его принципы. Существуют технические проблемы для реализации прототипа (Арджен Ленстра высказал некоторые возражения, с которыми Ади Шамир согласился).


По общему мнению, этот метод позволил бы факторизовать число приблизительно в 600 бит со средствами, которые позволили установить рекорд в 465 бит (в феврале 1999), если все проблемы с реализацией будут решены. Отмечено, что решето заняло приблизительно 60% времени для рекорда в 512 бит.


Все же шоу было очень увлекательным. Фил Циммерман, автор PGP, заметил, что очень доволен тем, что исследователи интересуются, как обстоят дела в этих проблемах, так как это увеличивает степень доверия к такого рода системам.

То, что будет возможным в будущем

Что такое закон Мура?

Закон Мура является оценкой развития вычислительной техники во времени. В базовом варианте он гласит, что для заданной стоимости (в широком смысле, включая энергопотребление, производство оборудования, износ, стоимость хранения и т.д.) вычислительная мощность увеличивается в 8 раз каждые 3 года. Говоря более точно, можно сказать, что через каждые три года технологические достижения позволяют разместить в 4 раза больше логических элементов в микросхеме заданной стоимости, одновременно ускоряя ее быстродействие в 2 раза.


Этот закон замечательно подтверждался в течение последних 15 лет. Следует отметить, что центральные микропроцессоры компьютеров общего назначения не полностью следуют этому закону, потому что они не могут так же быстро увеличить размер шины данных (по соображениям обратной совместимости кода, а также потому, что вычисления, которые эти процессоры обычно производят, имеют дополнительные ограничения, делающие бесполезным использование слишком больших регистров).


Это касается, таким образом, систем, описываемых в терминах логических элементов, специализированных на конкретном алгоритме. Таким образом, это по сути ASIC (Application Specific Integrated Circuit – специализированные микросхемы) и FPGA (Field Programmable Gate Arrays// – программируемые логические интегральные схемы, то есть перепрограммируемые цепи, выполняющие те же задачи, что и ASIC, но вдвое более дорогие при заданной мощности, однако являющиеся многоцелевыми).

Какова предполагаемая стоимость полного перебора с использованием специализированного оборудования?

Если закон Мура будет продолжать выполняться (а не имеется веских оснований для обратного, так как он учитывает качественные достижения, а не только увеличение точности обработки кремния), можно достичь машины EFF (четверть миллиона долларов, для 56 бит за 3 дня) и добавлять 3 бита каждые 3 года (3 бита = 23 = 8; что дает в 8 раз больше возможных вариантов ключей).


Заметим, что для сохранения закона Мура качественные достижения должны происходить достаточно быстро, так как имеются пределы в увеличении плотности элементов на кристалле кремния (замедление вследствие туннельного эффекта). В ряде разрабатываемых методов предполагается осуществить замену кремния на арсенид галлия, что позволит достичь более высокой плотности элементов, замену алюминия медью, которая позволяет работать гораздо более быстро, построение оптической логики (оптический элемент переключается приблизительно в 100 раз быстрее электронного, но его стоимость выше более, чем в 100 раз).


Таким образом, можно считать, подобрать полным перебором 128-битный ключ так же "легко", как сейчас 56-битный, станет возможным через 72 года. Эта оценка является "наилучшей", в то время как многие исследователи этой тематики полагают, что закон Мура будет выполняться в лучшем случае еще несколько лет (действительно, все качественные изменения, привнесенные за последних 15 лет, были просто нереализованными, известными с 1975 года, и их запас почти исчерпан в настоящее время).

А с использованием квантовых компьютеров?

Квантовые компьютеры, реализуемые через суперпозицию состояний одной частицы, являются более мощной вычислительной моделью, чем машина Тьюринга, и позволяют осуществить многие операции (среди которых полный перебор ключей такого "безграничного" алгоритма, как DES) за субэкспоненциальное время.


Квантовые компьютеры очень соблазнительны, но они не существуют. Был построен двухбитовый квантовый регистр, но имеются достаточно серьезные препятствия для построения машины, способной сломать DES (главным образом – инициализация этого монстра, которая не может быть распараллелена, и занимает, таким образом, 2n операций для ключа из n битов).


Это не имеет большого значения для другого типа квантовой криптографии, который служит для "неперехватываемой" передачи данных по оптоволокну (используя принцип неопределенности Гейзенберга).

Различные слухи

NSA/DST/другие могут ломать ключи до 128 бит

Имеются очень сильные возражения против такого рода высказываний. Среди классических можно выделить одно, предполагающее наличие процессора с энергопотреблением в 10 раз меньше, чем у классических (таким могли бы располагать секретные службы, имеющие преимущество). Энергетические затраты на полный перебор 128-битного ключа, если их перевести в тепловую форму, заставили бы исчезнуть под водой Нидерланды в результате таяния полярных льдов.


Что касается 256-битных ключей, то если предположить, что затраты на анализ одного ключа равны энергии перехода электрона с одной орбиты атома на другую, то количества великодушно предоставляемой Солнцем энергии недостаточно для осуществления такого перебора за разумное время.


Некоторые легко манипулируют количеством битов, легко относя 20 бит на использование сверхпроводников или оптических элементов, 20 других на применение суперэффективных алгоритмов, и 30 последних потому что "это уже немного" (да, просто помножим на 1 миллиард – это действительно "немного").


Напомню, что число битов экспоненциально. Это означает, что затраты на перебор каждых n битов пропорциональны 2n. Чтобы это было легче представить, напомним, что:


  • 64 бита: 18 446 744 073 709 551 616 возможных ключей;
  • 128 бит: 340 282 366 920 938 463 463 374 607 431 768 211 456 возможных ключей;
  • 256 бит: 115 792 089 237 316 195 423 570 985 008 687 907 853 269 984 665 640 564 039 457 584 007 913 129 639 936 возможных ключей.

NSA/DST/другие обладают квантовыми компьютерами

Очень маловероятно. Если это правда, то технологические достижения опережают всех как минимум лет на 10. Другими словами, они располагали бы тогда такой продвинутой технологией, что сама идея дальнейшей борьбы была бы абсурдом.


Некоторые упоминают возможность получения внеземной технологии, либо через Людей в Черном, либо непосредственно через Фила Циммермана, их посла на этой планете. Как считают другие источники, квантовым компьютером располагала цивилизация Атлантов (конечно, Атлантида была затоплена именно в результате перебора ключа "классическими" методами, см. выше).


Сталкиваясь с проявлениями абсурда и дилетантства в этой области, хочется посоветовать держаться подальше от подобного рода спекуляций, чтобы не выглядеть клоуном. Если хочется оценить, что в состоянии сделать NSA, надо дать ему 3 года времени в соответствии с законом Мура и хороший бюджет. Это позволит сделать задачу с 64 битами решаемой. 80 бит останутся недостижимыми.

NSA/DST/другие достигли методов криптоанализа, недоступных другим

NSA (в лице Дона Копперсмита) объявило в 1987 году, что знало о дифференциальном криптоанализе уже в 1977, обнародованном Бихамом и Шамиром именно в этом 1987 году. Алгоритм DES, разработанный в 1977, специально защищен от такой атаки.


Тем не менее, уточним, что такая атака требует огромного количества пар открытый/зашифрованный текст, и в любом случае нереальна. Кроме того, DES не был защищен против линейного криптоанализа, открытого в 1993 Мацуи, что ограничивает научное превосходство NSA 15 годами. Наконец, этот последний способ криптоанализа также нереален, т.к. требует 64 Тб известного открытого текста, что в несколько десятков миллионов раз превышает объем Библии.


Подобные слухи ходили также про факторизацию, дискретное логарифмирование и средства от прыщей. Легко можно встретить такие слухи в упоминаниях о международных заговорах злодеев, которые хотят знать все обо всех в этом мире.


В любом случае, с определенного момента гораздо дешевле установить видеокамеру в вашем офисе, чем заставлять "молотить" квантовый компьютер. Знаете ли вы, что восстановление изображения вашего монитора возможно с дистанции в 100 метров? То же самое касается и сигналов клавиатуры, когда вы печатаете. Необходимо иметь хорошо спроектированную сетку Фарадея, чтобы защищаться от этого. Шифрование позволяет установить защищенный канал между двумя точками, но не защищает сами точки.

Я работаю на NSA/DST/других и поэтому пытаюсь убедить общественность, что 128-битное шифрование надежно

Niark niark niark. Я обманщик, не так ли?




Примечания переводчика:

  1. Пожалуйста, не присылайте мне замечания / комментарии по содержанию документа. Я только перевел его. Пишите непосредственно автору (на французском или английском языке).
  2. EFF – Electronic Frontier Foundation.
  3. NSA – National Security Agency.
  4. DST – Direction de la Sйcuritй du Territoire.
  5. Я не нашел русского термина для "Permuted Perceptrons Problem" и перевел как "задача обратного распознавания". Если есть более правильный перевод – буду рад услышать. Что это такое, можно посмотреть здесь (на английском).
  6. Если вы найдете неточности в употреблении терминов или предложите более "благозвучный" вариант их перевода, это будет воспринято с благодарностью. Неконструктивная критика и флейм пойдут на /dev/null.


См. также: "Пределы роста", "К вопросу о безопасности 1024-битной версии RSA и 160-битной криптографии на эллиптических кривых".


 
Много комментариев (17) [показать комментарии/форму]
Ваша оценка документа [показать результаты]
-3-2-1 0+1+2+3