Технологии

Стоит ли нам бояться ИИ?

admin
Всего просмотров: 328

Среднее время на прочтение: 14 минут, 13 секунд

Представьте, что вы входите в темную комнату неизвестного здания. Вы можете впасть в панику при мысли о монстрах, которые могут прятаться в темноте. Или же вы можете просто включить свет, чтобы не врезаться в мебель. Эта темная комната — метафора для будущего искусственного интеллекта (ИИ). К сожалению, многие верят, что, в этой комнате, мы можем столкнуться с какими-то ужасными сверхумными машинами. Этому страху уже много лет. Он зародился в 1960-е годы, когда Ирвин Джон Гуд, британский математик, сотрудничавший с Аланом Тьюрингом в Блетчли-Парке, написал следующее:

Давайте дадим ультраинтеллектуальной машине следующее определение: это машина, которая значительно превосходит интеллектуальные способности любого умного человека. Поскольку разработка машин — одна из таких способностей, ультраинтеллектуальная машина могла бы создавать даже более совершенные машины, что, несомненно, привело бы к «всплеску интеллекта», и мыслительные способности человека останутся далеко позади. Так, первая ультраинтеллектуальная машина станет последним изобретением непосредственно человека, учитывая, что она будет достаточно послушна и поведает нам о том, как держать ее под контролем. Любопытно, что это наблюдение редко появлялось где-либо за пределами научной фантастики. Иногда стоит относиться к этому жанру литературы посерьезнее.

Когда ультраинтеллектуальные машины станут реальностью, они могут оказаться отнюдь не такими уж послушными, а, напротив, повести себя как Терминатор: поработить человечество как уступающий им вид, нарушать наши права, преследовать собственные интересы, не принимая во внимание влияние, которое они будут иметь на человеческие жизни.

Если все это кажется невероятным, возможно, вам следует еще раз задуматься над этим вопросом. Перенесемся на полстолетия назад — удивительные открытия в области цифровых технологий привели к тому, что многие люди поверили, что описанный Гудом «всплеск интеллекта» — серьезная угроза, которая может привести к гибели человечества, если мы не будем осторожны. Вот что Стивен Хокинг говорил по этому поводу в 2014 году:

Создание полноценного искусственного интеллекта может положить конец человеческой расе.

В прошлом году со схожей позицией выступил Билл Гейтс:

Я принадлежу к числу людей, которых беспокоит проблема сверхинтеллекта. Сперва машины будут выполнять за нас многие задачи, но пока еще не будут обладать сверхинтеллектом. Эта схема представляется позитивной, если мы сможем с ней справиться. Тем не менее, несколько десятилетий спустя, искусственный интеллект достигнет уровня развития, который уже будет причиной для беспокойства. В этом вопросе я согласен с Илоном Маском и некоторыми другими людьми, и я не понимаю, почему некоторым настолько откровенно плевать на эту проблему.

А что же сказал Илон Маск, исполнительный директор Tesla?

Нам следует очень аккуратно обращаться с искусственным интеллектом. Если бы меня спросили, что представляет наибольшую угрозу нашему существованию, я бы ответил, что это именно он… Все большее число ученых считает, что следует учредить систему контроля, может быть, на национальном и международном уровнях, просто чтобы убедиться, что мы не занимаемся чем-то очень неразумным. Разрабатывая искусственный интеллект, мы словно призываем демона. Мы оказываемся в такой же ситуации, как и герой типичных историй, вооружившийся пентаграммой и святой водой и уверенный, что да, конечно, он может контролировать демона. Ага, разбежался.

Реальность выглядит намного более банально. В марте этого года Microsoft выпустил Tay — чат-бот для Твиттера, созданный на базе искусственного интеллекта. Им пришлось удалить его уже спустя 16 часов. Предполагалось, что общение с людьми будет способствовать росту его интеллекта. Вместо этого он быстро стал про-фашистски настроенным, отрицающим Холокост, поощряющим инцест и обвиняющим президента Буша в теракте 11-го сентября болтуном. Почему? Потому что он работал по тому же принципу, что кухонное полотенце, впитывающее и меняющее свою форму под давлением мерзких сообщений, которые ему посылались. Microsoft пришлось принести извинения.

Таково на сегодняшний день состояние дел в области разработки искусственного интеллекта. На разговоры об опасностях сверхинтеллектуальных машин было потрачено очень много времени, так что пришла пора включить свет, перестать беспокоиться о научно-фантастических вариантах развития событий и начать концентрироваться на настоящих проблемах искусственного интеллекта, чтобы избежать болезненнных и дорогостоящих ошибок в проектировании и использовании наших смарт-технологий.

Позвольте мне уточнить. Философия не очень ладит с нюансами. Она может считать себя образцом точности и резких различий, однако на самом деле ее сердце отдано поляризации и дихотомиям. Интернализм или экстернализм, фундаментализм или когерентность, «проблема вагонетки», зомби или не зомби, субъективный или объективный, реальные или нереальные миры, наказанные или не получившие наказание… Философия может выступать за всеобъемлющее vel («девочки илимальчики могут играть»), однако слишком часто потворствует исключительному aut aut («либо тебе это нравится, либо нет»).

Споры, ведущиеся вокруг проблемы искусственного интеллекта, являются еще одним примером. В данном случае речь идет о дихотомии между теми, кто верит в настоящий искусственный интеллект, и их противниками. Да, реальный интеллект, не Сири в айфоне, не Румба в гостиной, не Nest на кухне. (А я счастливый обладатель всех трех технологий.) Подумайте лучше о ложной Марии из «Метрополиса» (1927 год); HAL 9000 из «Космической Одиссеи: 2001» (1968 год), где Гуд числился среди консультантов; C3PO из «Звездных войн» (1977 год); Рэйчел из «Бегущего по лезвию» (1982 год); Дейте из телесериала «Звездный путь: новое поколение» (1987 год); агенте Смите из «Матрицы» (1999 год) или бестелесной Саманте из фильма «Она» (2013 год). Ну, вы поняли. Последователи идеи о настоящем искусственном интеллекте и концепции «интеллектуального взрыва» Гуда принадлежат к Церкви Сингулярианцев. За неимением лучшего термина я буду называть людей, не разделяющих эти верования, членами Альтеистской церкви. Давайте взглянем на обе эти религии и поймем, почему они обе ошибочны. А меж тем, запомните: философия практически всегда лежит где-то в скучной середине.

Сингулярианцы верят в три догмата. Первый гласит, что в не столь отдаленном будущем станет возможно создание некоторых разновидностей искусственного интеллекта. Этот поворотный момент известен под названием «технологической сингулярности», что и дало имя течению. Ни природа, ни точная дата прибытия искусственного интеллекта по-прежнему неизвестны, хотя сингулярианство и предпочитают те сценарии будущего, по которым удобно складывается, что описанные выше события «состоятся достаточно скоро, чтобы начать об этом волноваться, но недостаточно скоро, чтобы не быть разбитыми в пух и в прах».

Второй догмат гласит, что над человечеством нависла серьезная угроза попасть в рабство к сверхинтеллекту. В-третьих, первостепенная ответственность нашего поколения — проследить за тем, чтобы переход к сингулярности либо не состоялся, либо, если ее наступление окажется неотвратимым, чтобы оно принесло пользу человечеству. Эта система верований очень схожа со взглядами манихейцев: борьба добра со злом, апокалиптичные обертона, патетичность посыла «нам нужно немедленно что-то сделать, или окажется слишком поздно», эсхатологическая перспектива спасения человечества и тяготение к страхам и незнанию.

Поместите все это в такой контекст: люди справедливо обеспокоены влиянием идиотских цифровых технологий на их жизни, в особенности в отношении рынка труда и цифровых войн, а пресса ежедневно вещает о новых гаджетах и небывалых компьютерных катастрофах. И у вас на руках будет готовый отвлекающий маневр: цифровой опиум для народа.

Как и все системы взглядов, основывающиеся на вере, сингулярианство представляется неопровержимым, поскольку, в конечном счете, он не может быть ограничен логикой или доказательствами. Он также неправдоподобен, поскольку не существует причин верить, что наше сегодняшнее или лежащее в ближайшем будущем понимание компьютеров и цифровой технологии приведет к созданию чего-нибудь, напоминающего интеллектуальные машины (не говоря уже о сверхинтеллектуальных). Позвольте мне объяснить.

Иногда сингулярианство представляется условным. Это хитро, поскольку тогда в действительности вытекает из если, а не исключительно в парадигме «из ложного — что угодно»: если бы появилось что-то вроде сверхинтеллекта, тогда мы бы оказались в большой беде (не просто «могли бы оказаться», как заявлял Хокинг.). Правильно. Абсолютно. Однако все это остается правильным и для следующего предположения: если в мире появятся четыре всадника Апокалипсиса, тогда нам еще больше не поздоровится.

Порой сингулярианство опирается на очень слабую вероятность: какая-то форма искусственного интеллекта может возникнуть, разве нет? Да, может. Но это «может» — лишь логическое допущение. Насколько нам известно, не существует условий, сводящих на нет предположение о создании искусственного интеллекта. Однако подобное отношение несет в себе угрозу, поскольку оно размывает колоссальную разницу между утверждением «возможно, я завтра разболеюсь», когда мне уже нехорошо, и «возможно, я бабочка, которой снится, что она человек».

Вполне можно предположить, что покойный родственник, о котором вы никогда знать не знали, оставил вам 10 миллионов долларов, нет никаких противоречий. Это могло бы случиться. Так что же? Возможно, противоречия, как счастливо женившиеся холостяки, не отражают истинное положение дел, однако не-противоречия, как, к примеру, предположение, что инопланетяне, живущие рядом с нами и настолько хорошо маскируются, что мы никогда не сможем их распознать, по-прежнему могут быть отвергнуты как абсолютно ненормальные. Другими словами, могло бы — это не могло бы случиться применительно к землетрясению, однако неправда, что этого не может произойти при мысли, что вы стали первым в мире бессмертным человеком. Правильно, однако это не причина начинать вести себя так, как будто вы будете жить вечно. Если только кто-то не докажет обратное утверждение и покажет, что в нашем текущем и будущем понимании компьютерных технологий существовало нечто, из-за чего мы можем подозревать, что появление искусственного интеллекта уже не за горами.

В этом случае сингулярианцы смешивают веру и факты, что зачастую, как мне кажется, вызвано искренним предчувствием апокалиптической срочности. Они начинают говорить о потере рабочих мест, о том, что над всеми цифровыми системами нависнет опасность, о взбесившихся дронах и других реальных и вызывающих беспокойство проблемах вычислительных технологий, которые скоро будут господствовать над человеческими жизнями, от образования до работы, от развлечений до конфликтов. И исходя из этого, они начинают паниковать, что не смогут управлять своей следующей Honda Civic, поскольку у нее появится собственный разум. Остается неясным, как же некоторым дьявольским сверхинтеллектуальным образцам искусственного интеллекта удастся когда-либо самостоятельно развить свои вычислительные навыки от примитивной парковки в узком месте. Правда заключается в том, что залезть на дерево — это не значит сделать маленький шаг по направлению к Луне; это само по себе конец путешествия. Что мы действительно увидим, так это все более умные машины, способные справляться с бóльшим количеством задач, чем мы.

Когда все остальные аргументы терпят неудачу, сингулярианцы любят обращаться к математике. Их любимый довод — это закон Мура. Он представляет собой эмпирическое утверждение, что в ходе развития цифровых компьютеров количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые 2 года. До сих пор результат выражался в увеличении вычислительной мощи, однако время не стоит на месте. Технические проблемы в области нанотехнологий вызывают серьезные трудности в производстве. В конце концов, существует предел уменьшения размеров продукции, по достижении которого маленькие вещи начнут просто-напросто исчезать. Закон Мура больше неприменим. Только потому что что-то на протяжении некоторого времени демонстрирует экспоненциальный рост, не значит, что оно всегда будет показывать такую динамику. Об этом писал The Economist в 2014 году:

На протяжении всей известной нам истории человечество царило на Земле безраздельно и было доминирующим видом. Возможно ли, что это скоро изменится? Индейки, пусть и выглядят безвредными, в последнее время увеличиваются в размерах, раздуваясь от средних 6 кг в 1929 году до более чем 13 кг сегодня. Опираясь на солидные научные исследования, гласящие, что эта тенденция будет лишь усиливаться, The Economist сделал прогноз, что всего через 150 лет индейки достигнут такого же размера, как люди. В ближайшие 6000 лет индейки станут самыми крупными существами на планете. Ученые утверждают, что стремительный рост индеек является результатом инноваций в сфере их разведения, к примеру, применения системы селективного размножения и искусственного осеменения. Искусственная природа их роста и тот факт, что большинство из них потеряло способность летать заставляет нас поверить, что еще не все потеряно. Однако, учитывая, что около 250 миллионов индеек обжираются и процветают в одной только Америке, у нас есть все причины для беспокойства. На этот день Благодарения у нас появилась достойная причина действовать: есть их, пока они не съели нас.

Разница между монструозной индейкой и нашествием искусственного интеллекта не так уж велика, если не принимать в расчет тот факт, что кривая роста вполне может быть сигмовидной, где начальная стадия роста приближается к экспоненте, вслед за этим наступает стабилизация, рост замедляется, затем следует период зрелости и, наконец, рост прекращается. Однако я подозреваю, что концепция сигмовидных кривых может считаться ересью у сингулярианцев.

Сингулярионизм безответно сбивает с толку. Это верование представителей мира богатых, затрагивающее людей из развитых стран, которые, кажется, забыли о настоящем зле, угрожающем человечеству и нашей планете. Достаточно привести один пример: почти 700 миллионов людей лишены доступа к чистой воде. Это колоссальная угроза существованию человечества. О, и если вы считаете, что прогнозы экспертов являются достоверным источником информации, подумайте дважды. Существует огромное количество ошеломляюще ошибочных прогнозов экспертов в области технологий (почитайте уморительные гипотезы Дэвида Пога и прогнозы сайта Cracked.com). В 2004 году Гейтс сказал: «Через два года мы решим проблему спама». А в 2011 году Хокинг заявил, что «философия мертва» (Ну и что же вы тогда сейчас читаете?).

Предсказание, которое нравится мне больше всего, было сделано сооснователем сети Ethernet и основателем 3Com, компании, производящей цифровую электронику, Робертом Меткалфом. В 1995 году он пообещал «съесть свои слова», если окажется, что он ошибался, утверждая, что «скоро интернет последует сценарию сверхновой и в 1996 году прекратит свое существование». Будучи человеком слова, в 1997 году он публично пропустил свою статью через кухонный комбайн и выпил ее. Вот бы сингулярианцы были такими же отважными и последовательными, как он.

Сильно раздраженные теми, кто поклоняется ложным цифровым богам и создает несбыточные пророчества, неверующие — альтеисты — ставят перед собой задачу раз и навсегда доказать, что любая вера в настоящий искусственный интеллект глубоко ошибочна. Искусственный интеллект — это всего лишь компьютеры, компьютеры — это всего лишь машины Тьюринга, машины Тьюринга — не более, чем синтаксические двигатели, а синтаксические двигатели не могут думать, не могут знать, не обладают сознанием. Вот и все.

Поэтому до сих пор существует огромное количество вещей, которые компьютеры (по-прежнему) не могут делать, что послужило названием публикаций ряда авторов — Айры Уилсон (1970 г.); Хьюберта Дрейфуса (1972 г., 1979 г.), Дрейфуса (1992 г.), Дэвида Хэрела (2000 г.), Джона Сирла (2014 г.) — хотя точные примеры того, что компьютер не может сделать, постоянно меняются. Также, именно поэтому они не в состоянии осознавать семантику (любого языка, включая китайский, несмотря на старания гугл-переводчика). Это доказывает, что проблему искусственного интеллекта не стоит даже обсуждать, не то что волноваться о ней. Не существует настоящего искусственного интеллекта, а значит, следовательно, не существует проблем, связанных с его функционированием. Расслабьтесь и наслаждайтесь использованием всех этих чудесных гаджетов.

Вера альтеистов в такой же степени ошибочна, как и вера сингулярианцев. У обеих церквей есть множество приверженцев в Калифорнии, где бок о бок процветают произведенные в Голливуде научно-фантастические фильмы, замечательные исследовательские институты, как, к примеру, Беркли, и некоторые из важнейших цифровых компаний. Возможно, это совпадение не случайно. Там, где в дело вступают большие деньги, людей становится легко запутать. К примеру, Google скупает компании, занимающиеся разработкой искусственного интеллекта, такими темпами, будто завтрашний день никогда не настанет (предупреждение: я член Экспертного совета Google по «праву на забвение»), так что, получается, Google должен знать о реальных шансах на создание мыслящего компьютера что-то, недоступное нам, людям, не принадлежащим к «внутреннему кругу»? Эрик Шмидт, исполнительный председатель Google, дал почву этим слухам, выступая в институте Аспена в 2013 году: «Многие люди, занимающиеся разработкой искусственного интеллекта, верят, что мы близки к [созданию компьютера, который сможет пройти тест Тьюринга] в ближайшие 5 лет».

Тест Тьюринга является способом проверить, продвигается ли ИИ в этом направлении. Вы задаете вопросы двум субъектам в разных комнатах; один из них — человек, другой — компьютер. Если вы не можете отличить одного от другого, анализируя полученные ответы, тогда компьютер успешно проходит этот тест. Такая проверка не продумана. Представим на минутку экзамен по вождению: если Алиса его не сдаст, то она не считается осторожным водителем; но даже если она его сдаст, она по-прежнему может быть неосторожным водителем. Тест Тьюринга дает необходимое, но недостаточное условие для такого вида интеллекта. Это действительно низкая планка. И в то же самое время, ни один ИИ еще не преодолел ее. Что более важно, все программы продолжают терпеть поражение, используя трюки и уловки, разработанные в 1960-х годах. Предлагаю вам пари. Я съем целую тарелку ненавистных мне баклажанов, если какое-нибудь ПО пройдет Тест Тьюринга и станет золотым призером Премии Лёбнера до 16 июля 2018 года. Уверяю вас, я не проиграю.

Ошибаются как сингулярианцы, так и альтеисты. Как ясно высказался Алан Тьюринг в статье от 1950 года, которая знакомила читателя с его тестом, вопрос «Может ли машина мыслить?» является «слишком бессмысленным для его обсуждения» (этот вопрос выгравирован на медали Премии Лёбнера — ирония и, возможно, провидение). Это высказывание остается верным вне зависимости от того, к какому лагерю вы принадлежите. И все же оба продолжают этот бессмысленный спор, отрекаясь от голоса разума и подавляя его.

Истинный ИИ не то чтобы невозможен с логической точки зрения, но он совершенно неправдоподобен. Мы не имеем ни малейшего понятия о том, как мы можем начать разрабатывать его, к тому же вообще не представляем, как работают наши собственные мозг и разум. Это означает, что нам не следует заморачиваться по поводу возможного появления сверхразума. Что действительно важно — тот факт, что нарастающее присутствие постоянно развивающихся технологий оказывает огромное влияние на то, как мы воспринимаем самих себя, мир, наши взаимодействия с ним. Дело не в том, что у наших машин есть сознание, или ум, или что они могут делать то, что нам не под силу. Все это неправда. Существует множество хорошо известных результатов, демонстрирующих вычислительные ограничения, так называемые неразрешимые задачи, для которых — и это можно доказать — невозможно создать алгоритм, во всех случаях ведущий к правильному ответу «да/нет».

Например, мы знаем, что наши вычислительные машины отвечают соответствию Карри – Ховарда; это означает, что системы доказательств в логике с одной стороны и вычислительные модели — с другой, фактически являются одним и тем же видом объектов, таким образом, любые логические ограничения в равной степени применимы к компьютерам. Множество машин могут делать поразительные вещи, среди которых игра в шашки, шахматы, Го или телевизионная игра-викторина Jeopardy. И играют они лучше нас. И тем не менее, они все являются версиями Машины Тьюринга — абстрактной модели, которая ставит ограничения на то, что может сделать компьютер, используя свою математическую логику.

Квантовые компьютеры точно также ограничены лимитом того, что может быть вычислено (так называемые вычисляемые функции). Никакая наделенная сознанием сущность не возникнет из Машины Тьюринга. Дело в том, что наши смарт-технологии — во многом благодаря невероятным объемам доступных данных и весьма изощренному программированию — все чаще справляются с некоторыми задачами лучше нас, в том числе, лучше предсказывают наше поведение. Так что мы не единственные, кто может успешно выполнять задачи.

Именно это я назвал Четвертой Революцией в нашем понимании самих себя. Мы не являемся центром Вселенной (Коперник) или биологического царства (Чарльз Дарвин), или творением рациональности (Зигмунд Фрейд). И после Тьюринга мы больше не являемся центром информационной среды, мира обработки информации и развитой агентности. Мы разделяем информационную среду с цифровыми технологиями. Это самые обычные объекты материальной культуры, которые справляются с задачами все лучше и лучше нас, при этом ума у них как у тостера. Их способности повергают в шок и заставляют нас пересмотреть свою уверенность в исключительности рода человеческого и его особой роли во Вселенной, которая остается уникальной. Мы полагали, что мы умные, потому что можем играть в шахматы. А сейчас телефоны играют лучше гроссмейстеров. Мы думали, что свободны, потому что можем купить все, что вздумается. Теперь характер наших покупок предсказывается приборами толщиной в половицу.

Успех наших технологий во многом зависит от того факта, что, пока мы рассуждали о возможности сверхразума в принципе, мы все больше и больше обволакивали мир настолько плотной паутиной из различных устройств, сенсоров, приложений и данных, что он стал дружественной ИИ средой, в которой технологии могут заменить нас без наличия какого-либо понимания, душевных состояний, намерений, интерпретаций, эмоциональных состояний, смысловых навыков, совести, самосознания или гибкости мышления. Память (в алгоритмах и огромных базах данных) превосходит разум при посадке самолета, поиске кратчайшего пути от дома до работы или лучшей цены на новый холодильник.

Цифровые технологии выполняют работу лучше нас во все большем и большемколичестве областей, обрабатывая растущие объемы данных и улучшая свою производительность посредством анализа собственных результатов как основы для последующих действий. Разработанная компанией Google DeepMind программа AlphaGo выиграла в настольной игре Го против лучшего игрока в мире потому, что в ее распоряжении была база данных из 30 миллионов ходов, и она могла играть против самой себя, «учась» тому, как улучшить свою стратегию. Это как система из двух ножей, которые точат друг друга. В чем тут разница? Такая же, как между мытьем посуды человеком и посудомойкой. В чем последствие? В том, что любое пророчество об «ИИ-Апокалипсисе» можно проигнорировать. В любом обозримом будущем мы, а не наши технологии, будем проблемой. Так что нам следует сосредоточиться на настоящих угрозах. В качестве заключения, позвольте мне перечислить пять из них, — каждая в равной степени заслуживает внимания.

Мы должны сделать ИИ дружественным окружающей среде. Нам необходимы самые высокие технологии, которые мы только можем создать, чтобы бороться с реальными бедствиями, которые угнетают человечество и нашу планету, будь то преступления, терроризм, война, или голод, бедность, безграмотность, неравенство и ужасающий уровень жизни.

Нам следует создать удобный человеку ИИ. Он должен всегда расценивать людей как цель, а не только как средство, если перефразировать Иммануила Канта.

Глупость ИИ должна всегда работать на разум человека. Миллионы рабочих мест могут быть сокращены, исчезнуть или появиться: вся польза от этого должна делиться между всеми, а затраты нестись обществом.

Нам необходимо использовать прогностические способности ИИ на благо наших свобод и независимости. Маркетинг продукции, влияние на поведение, надоедание людям или борьба с преступностью и терроризмом никогда не должны подрывать человеческое достоинство.

И, наконец, нужно настроить ИИ на поддержание нашей собственной человечности. Высок риск того, что мы злоупотребим нашими высокими технологиями в ущерб большинству человечества и всей планеты. Как сказал Уинстон Черчилль, «мы лепим наши творения, а потом наши творения лепят нас». Это также относится к информационной среде и ее высоким технологиям.

Сингулярианцы и альтеисты все также будут яростно критиковать возможность и невозможность истинного ИИ. Нам всем нужно быть терпимыми. Но мы не обязаны вступать в спор. Вергилий из «Божественной Комедии» Данте (часть «Ад») дает такой совет: «Они не стоят слов: взгляни — и мимо!» (пер. М. Лозинского). Потому что миру нужна хорошая философия, а нам нужно разобраться в более насущных проблемах.

Автор: Лучиано Флориди — профессор философии и информационной этики в Оксфорде, а также почетный научный сотрудник в центре изучения этики Uehiro. Его последняя книга — «Четвертая революция: как сфера информационных технологий меняет реальность» (2014).
Оригинал: Aeon.

Перевели: Влада Ольшанская и Юрий Гаевский.
Редактировали: Евгений Урываев и Артём Слободчиков.