RUTUBE
Добавить
Уведомления
  • Главная
  • RUTUBE для блогеров
  • Каталог
  • Популярное
  • В топе
  • Shorts
  • ТВ онлайн
  • Трансляции
  • Моё
  • Фильмы
  • RUTUBE x PREMIER

Войдите, чтобы подписываться на каналы, комментировать видео и оставлять реакции


  • Подписки
  • История просмотра
  • Плейлисты
  • Смотреть позже
  • Комментарии

  • Авто
  • Анимация
  • Блогеры
  • Видеоигры
  • Детям
  • Еда
  • Интервью
  • Команда R
  • Культура
  • Лайфхаки
  • Музыка
  • Новости и СМИ
  • Обучение
  • Оriginals
  • Подкасты
  • Путешествия
  • Радио
  • Разговоры о важном
  • Сельское хозяйство
  • Сериалы
  • Спорт
  • Телешоу
  • Фонды помощи
  • Футбол
  • Юмор
Телеканалы
  • Иконка канала Первый канал
    Первый канал
  • Иконка канала Россия 1
    Россия 1
  • Иконка канала МАТЧ
    МАТЧ
  • Иконка канала НТВ
    НТВ
  • Иконка канала Пятый канал
    Пятый канал
  • Иконка канала Телеканал Культура
    Телеканал Культура
  • Иконка канала Россия 24
    Россия 24
  • Иконка канала ТВЦ
    ТВЦ
  • Иконка канала РЕН ТВ
    РЕН ТВ
  • Иконка канала СПАС
    СПАС
  • Иконка канала СТС
    СТС
  • Иконка канала Домашний
    Домашний
  • Иконка канала ТВ-3
    ТВ-3
  • Иконка канала Пятница
    Пятница
  • Иконка канала Звезда
    Звезда
  • Иконка канала МИР ТВ
    МИР ТВ
  • Иконка канала ТНТ
    ТНТ
  • Иконка канала МУЗ-ТВ
    МУЗ-ТВ
  • Иконка канала ЧЕ
    ЧЕ
  • Иконка канала Канал «Ю»
    Канал «Ю»
  • Иконка канала 2х2
    2х2
  • Иконка канала Кухня
    Кухня
  • Иконка канала viju
    viju


RUTUBE всегда с вами
Больше от RUTUBE
  • SMART TV
  • RUTUBE Детям
  • RUTUBE Спорт
  • RUTUBE Новости
RUTUBE в других соцсетях

  • Вопросы и ответы
  • Сообщить о проблеме
  • Написать в поддержку
  • О RUTUBE
  • Направления деятельности
  • Пользовательское соглашение
  • Конфиденциальность
  • Правовая информация
  • Рекомендательная система
  • Фирменный стиль

© 2025, RUTUBE

Palantir с кровавыми мальчиками в глазах не скайнет и не существует, но уже действует

Palantir с кровавыми мальчиками в глазах не скайнет и не существует, но уже действует Уважаемые, вот прикиньте его к носу, который собирает миллиарды данных, анализирует их за секунды и предсказывает действия противника.  Нейротинтеллект, который помогает принимать решения о жизни и смерти, о начале и окончании войн. И не из научной фантастики. Он существует. И зовут его не Скайнет, а Palantir. Многие привыкли думать, что искусственный интеллект — это будущее. Но на самом деле он уже здесь. Он управляет нашими новостными лентами, рекомендует товары, распознаёт лица в толпе... И, как выяснилось, он уже участвует в планировании военных операций - бух бух. Война на Ближнем Востоке, конфликт с Ираном, кризисные зоны по всему миру — всё это становится полигоном для новых технологий.  И на передовой этой цифровой войны стоит компания Palantir, созданная миллиардером Питером Тилем. Да-да, тем самым, который финансировал в России запрещённый Facebook на зарядке, а потом стал одним из ключевых спонсоров Дональда Трампа. Palantir разработала специальную платформу под названием Mosaic. Это не просто программа. Это мощный аналитический инструмент, способный обрабатывать 400 миллионов данных о ядерных объектах Ирана.  Mosaic был создан при участии In-Q-Tel — теневого венчурного фонда ЦРУ, который когда-то вложился даже в Google.  То есть речь идёт не просто о коммерции. Это часть глобальной стратегии, где технологии становятся оружием, а данные — боеприпасами. Но вот в чём парадокс: искусственный интеллект, созданный для повышения точности и эффективности, сам начинает грешить неточностями. И дело не только в технических ограничениях. Проблема гораздо глубже. Когда мы говорим об искусственном интеллекте, мы часто забываем, что он лишь отражение тех данных, которыми его кормят.  А эти данные формируются людьми. Политиками. Разведками. Корпорациями.  И все они имеют свои интересы, установки, идеологии. Алгоритмы, которые должны быть объективными, на деле становятся зеркалом продолжения человеческой предвзятости.  И тогда искусственный интеллект перестаёт быть помощником. Он становится проекцией их страхов, стереотипов и ошибок. Пример? Посмотрите на Украину. Там Palantir тоже использовался, как важно заявил сам Питер Тиль, «в качестве тактического ядерного оружия».  Однако контрнаступление, подготовленное с помощью этих технологий, закончилось провалом.  Почему? Потому что данные были неполными. Или искажёнными. Или просто не учтены факторы, которые искусственный интеллект не умеет интерпретировать — человеческая воля, погодные условия, моральный дух солдат... То же самое сейчас повторяется с Ираном. Предиктивные алгоритмы, которые должны были предсказать действия Тегерана, оказались не готовы к реальности.  Они видели модель, а не мир. Они искали закономерности в прошлом, чтобы предсказать будущее — но мир слишком быстро меняется, чтобы его можно было загнать в формулу. И вот здесь возникает главный вопрос:   Куда движемся?  Создаём системы, которые принимают всё больше решений вместо людей. Мы делегируем им ответственность за безопасность, за оборону, за стратегию. Но если искусственный интеллект работает на основе ложных данных или политически ангажированных алгоритмов, то он может стать не инструментом мира, а источником катастрофы.  Представьте, что один неверный прогноз искусственного интеллекта приведёт к тому, что будет дан приказ об ударе. По ложному сигналу. Без проверки. Без человека в цепочке. Это и есть настоящая угроза. Не Скайнет, не восстание машин. Угроза — в том, что мы начнём слепо доверять искусственному интеллекту, считая его беспристрастным, объективным и всезнающим. А он пока остаётся таким же уязвимым, как и мы. Поэтому нужно задаться вопросом: - Кто контролирует данные? - Кто пишет алгоритмы? - Кто определяет, какие модели использовать? - И кто несёт ответственность, когда всё идёт не так? - И кого потом повесить, после того как, чтобы другим не повадно было? Если мы этого не сделаем, то однажды проснёмся в мире, где войны начинаются не по приказу президента, а по рекомендации машины. И тогда уже не важно, хочет она этого или нет. Главное — кто запрограммировал её желание. В итоге скайнет не существует…  Но он уже давно работает. Благодарю за понимание! Заглядывайте ещё! Подписывайтесь! Лайкайте! Репостуйте! Берегите себя! #топыкатегорий  #всяправда #Гиперреальность #ИскусственныйИнтеллект  #РодиласьСибири

Иконка канала BBC: НЕ БЫЛО! НО ВОТ ОПЯТЬ!
BBC: НЕ БЫЛО! НО ВОТ ОПЯТЬ!
81 подписчик
12+
6 просмотров
5 дней назад
24 июня 2025 г.
ПожаловатьсяНарушение авторских прав

Palantir с кровавыми мальчиками в глазах не скайнет и не существует, но уже действует Уважаемые, вот прикиньте его к носу, который собирает миллиарды данных, анализирует их за секунды и предсказывает действия противника.  Нейротинтеллект, который помогает принимать решения о жизни и смерти, о начале и окончании войн. И не из научной фантастики. Он существует. И зовут его не Скайнет, а Palantir. Многие привыкли думать, что искусственный интеллект — это будущее. Но на самом деле он уже здесь. Он управляет нашими новостными лентами, рекомендует товары, распознаёт лица в толпе... И, как выяснилось, он уже участвует в планировании военных операций - бух бух. Война на Ближнем Востоке, конфликт с Ираном, кризисные зоны по всему миру — всё это становится полигоном для новых технологий.  И на передовой этой цифровой войны стоит компания Palantir, созданная миллиардером Питером Тилем. Да-да, тем самым, который финансировал в России запрещённый Facebook на зарядке, а потом стал одним из ключевых спонсоров Дональда Трампа. Palantir разработала специальную платформу под названием Mosaic. Это не просто программа. Это мощный аналитический инструмент, способный обрабатывать 400 миллионов данных о ядерных объектах Ирана.  Mosaic был создан при участии In-Q-Tel — теневого венчурного фонда ЦРУ, который когда-то вложился даже в Google.  То есть речь идёт не просто о коммерции. Это часть глобальной стратегии, где технологии становятся оружием, а данные — боеприпасами. Но вот в чём парадокс: искусственный интеллект, созданный для повышения точности и эффективности, сам начинает грешить неточностями. И дело не только в технических ограничениях. Проблема гораздо глубже. Когда мы говорим об искусственном интеллекте, мы часто забываем, что он лишь отражение тех данных, которыми его кормят.  А эти данные формируются людьми. Политиками. Разведками. Корпорациями.  И все они имеют свои интересы, установки, идеологии. Алгоритмы, которые должны быть объективными, на деле становятся зеркалом продолжения человеческой предвзятости.  И тогда искусственный интеллект перестаёт быть помощником. Он становится проекцией их страхов, стереотипов и ошибок. Пример? Посмотрите на Украину. Там Palantir тоже использовался, как важно заявил сам Питер Тиль, «в качестве тактического ядерного оружия».  Однако контрнаступление, подготовленное с помощью этих технологий, закончилось провалом.  Почему? Потому что данные были неполными. Или искажёнными. Или просто не учтены факторы, которые искусственный интеллект не умеет интерпретировать — человеческая воля, погодные условия, моральный дух солдат... То же самое сейчас повторяется с Ираном. Предиктивные алгоритмы, которые должны были предсказать действия Тегерана, оказались не готовы к реальности.  Они видели модель, а не мир. Они искали закономерности в прошлом, чтобы предсказать будущее — но мир слишком быстро меняется, чтобы его можно было загнать в формулу. И вот здесь возникает главный вопрос:   Куда движемся?  Создаём системы, которые принимают всё больше решений вместо людей. Мы делегируем им ответственность за безопасность, за оборону, за стратегию. Но если искусственный интеллект работает на основе ложных данных или политически ангажированных алгоритмов, то он может стать не инструментом мира, а источником катастрофы.  Представьте, что один неверный прогноз искусственного интеллекта приведёт к тому, что будет дан приказ об ударе. По ложному сигналу. Без проверки. Без человека в цепочке. Это и есть настоящая угроза. Не Скайнет, не восстание машин. Угроза — в том, что мы начнём слепо доверять искусственному интеллекту, считая его беспристрастным, объективным и всезнающим. А он пока остаётся таким же уязвимым, как и мы. Поэтому нужно задаться вопросом: - Кто контролирует данные? - Кто пишет алгоритмы? - Кто определяет, какие модели использовать? - И кто несёт ответственность, когда всё идёт не так? - И кого потом повесить, после того как, чтобы другим не повадно было? Если мы этого не сделаем, то однажды проснёмся в мире, где войны начинаются не по приказу президента, а по рекомендации машины. И тогда уже не важно, хочет она этого или нет. Главное — кто запрограммировал её желание. В итоге скайнет не существует…  Но он уже давно работает. Благодарю за понимание! Заглядывайте ещё! Подписывайтесь! Лайкайте! Репостуйте! Берегите себя! #топыкатегорий  #всяправда #Гиперреальность #ИскусственныйИнтеллект  #РодиласьСибири

, чтобы оставлять комментарии