• Помощь проекту

    Помочь проекту на "Я соберу" можно, перейдя по ссылке: https://yasobe.ru/na/antirs

  • Объявления

    • Фрекен Бок

      Правила форума   24.09.2020

      Перед регистрацией, созданием тем и сообщений настоятельно рекомендуется всем прочитать Правила форума   
    • Фрекен Бок

      F.A.Q. для новичков   24.09.2020

      Тема для новичков. Банки,Коллекторы,Суды,Приставы
       
atak

Скорая компьютерная помощь

3 374 сообщения в этой теме

@jhordan зря хвалишься. У меня таких полный комплект. Все степени в наличии.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах


6 минут назад, jhordan сказал(а):

на планшете юзаешь?

Ну это еще ладно, но когда на серверной версии винды 2012 админ увидел  плиточный интерфейс.то... я много интересных фразеологических оборотов узнал:-D

1 пользователю понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Лицензионная восьмерка бесплатно сможет обновится до 10. Если вы на сайте укажите что вы "человек с ограниченными возможностями". Справки никто не требует. Верят на слово.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
В 12.05.2017 at 19:19, Хитрый сказал(а):

Лицензионная восьмерка

Нафига она нужна, когда есть 10 и  macOS 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

убунта еще пчля е...для дома само то оно))))работает как лошадь....

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
В 13.05.2017 at 22:13, montolit сказал(а):

Нафига она нужна, когда есть 10 и  macOS 

Знаете ли сударь. Бывают случаи. Когда новый ноутбук идет с восмеркой. Так вот тут и пригождается обновление до десятки.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@Хитрый 10 -к в нете завались:-o а уж мелкософтные явно какого нибудь кастрата подсунут. Посмотрите по железу может macOS встанет

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Все прекрасно работает. Я в игры играю. Мне ваш МАК пофик. А в инете можете качать всякое г... сколько душе угодно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да каждому своё))))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Это хана монитору приходит?

Screenshot.png

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@Fee4ka Заклей глазок iSight  , все видно, следят за тобой:-D

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
14 минуты назад, montolit сказал(а):

глазок iSight

:eee:шо таке?

 

ААА:-o нету его, монитор- обычный комп на работе

Изменено пользователем Fee4ka

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@Fee4ka видеоглаз в мониторе:-o

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Владимир Путин подписал закон о запрете анонимайзеров

Президент России Владимир Путин подписал закон о запрете использования в России анонимайзеров — средств для обхода блокировок для доступа к запрещенным сайтам. Об этом сообщается на официальном интернет-портале правовой информации.

Закон был принят Госдумой 21 июля и одобрен Советом федерации 25 июля. Согласно поправкам к закону «Об информации» и КоАП, для веб-ресурсов будут вводиться санкции за доступ к запрещенным сайтам. Они будут распространяться на все прокси- и VPN-сервисы, а также анонимные сети, такие как Tor.

Поправки также предполагают, что появится перечень сервисов, позволяющих обойти заблокированные сайты. Кроме того, в документе указано, что будут определяться провайдеры хостинга таких сервисов и иные лица, обеспечивающие их работу. Выявлять анонимайзеры будет не Роскомнадзор, а ФСБ и МВД. Большинство положений закона вступает в силу 1 ноября 2017 года.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Боты против людей

Интернет-помощники все чаще выходят за установленные рамки

05.08.2017, 15:16

Программы-боты были призваны избавить пользователей от выполнения однообразной и примитивной работы в интернете, а также помогать максимально быстро и просто получать ответы на интересующие их вопросы. Но в последнее время боты с искусственным интеллектом все чаще выходят за установленные человеком рамки.

Похоже, машины действительно начали восставать против людей. И первыми эту войну начали те, кто казались самыми безобидными созданиями с искусственным интеллектом (AI),— чат-боты. Они были разработаны для того, чтобы пользователи различных сервисов и приложений могли легко и быстро получить необходимую информацию. Такие программы часто используются для сообщения прогноза погоды, результатов спортивных соревнований, курсов валют, биржевых котировок и т. п. Самообучающиеся же боты должны были стать полноценными собеседниками пользователей, способными понимать человеческую речь и отвечать на любые вопросы.

Но в последнее время произошло сразу несколько событий, которые демонстрируют, что искусственный интеллект может не только помочь, но и навредить человечеству.

Последним примером «восстания машин» стало поведение двух ботов китайского мессенджера Tencent QQ, которых пришлось срочно удалять за их «антикоммунистические и классово чуждые» высказывания. Первого из них, BabyQ, спросили «любит ли он Коммунистическую партию», на что тот ответил — «нет». Другой пользователь написал боту «Да здравствует Коммунистическая партия!», а в ответ BabyQ спросил: «Ты действительно думаешь, что столь коррумпированные и некомпетентные политики долго протянут?»

У второго чат-бота, XiaoBing, оказались отличные от разрешенных китайскими партией и правительством представления о «китайской мечте». Одному из пользователей он заявил, что его китайская мечта — «это уехать в Америку», а другому, что «китайская мечта — это грезы и ночные кошмары». Кроме того, он начал грубо вести себя с пользователем, предложив ему «катиться», поскольку у него, мол, «критические дни». Tencent, компания, к которой у китайских властей и так есть масса претензий, тут же удалила обоих ботов из своего приложения, заявив, что они были разработаны сторонними компаниями и будут возвращены в мессенджер только после того, как будут устранены все недостатки.

Ранее неподобающими высказываниями отличился чат-бот Microsoft. Американская корпорация, казалось бы, сделала все возможное, чтобы ее бот в Twitter не говорил о политике и религии — двух очень деликатных темах. Тем не менее первый из ботов компании — Tay, запущенный в марте 2016 года, корректно проработал всего день. Спустя сутки он начал выдавать множество расистских и женоневистнических комментариев, из-за чего руководство компании приняло решение экстренно удалить его из Twitter. Пришедший ему на смену Zo, запущенный в декабре прошлого года, продержался куда дольше. Но в июле и он стал говорить о политике и религии. В частности он заявил, что «Коран очень жесток», а уничтожение Осамы бен Ладены «стало следствием сбора разведданных под руководством администрации одной из стран».

На самом деле, похоже, сами по себе эти чат-боты ни в чем не виноваты. Их проблема, очевидно, кроется в том, что все они работают на базе искусственного интеллекта, анализируя ответы пользователей мессенджеров и добавляя их фразы в свой лексикон. А пользователи могут умышленно выдавать фразы, которые противоречат нормам соцсетей.

Куда сложнее все оказалось с ботами Facebook, которые с людьми вообще не общались.

Искусственный интеллект заговорил по-своему

Как боты Facebook придумали для себя непонятный людям язык

01.08.2017, 14:39

Специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (ИИ) приняли решение об отключении одной из созданных ими систем ИИ после того, как выяснилось, что боты придумали свой собственный язык для общения, непонятный для людей. Эксперты обсуждают варианты того, до чего могли бы договориться боты, если бы их вовремя не остановили, и призывают ввести регулирование этой области технологий, чтобы ИИ не вышел из-под контроля человека.

В июне нынешнего года специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали исследование о том, как они занимаются обучением ботов диалогам с элементами согласования условий, достижения компромисса, то есть такому общению, которое обычный человек ведет ежедневно в разных ситуациях. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с понятного английского на какой-то свой вариант языка с использованием английских слов, не имеющий смысла для человека. Во избежание непредсказуемых последствий — боты могли договориться о чем-то неизвестном — ученые отключили эту систему ИИ и запрограммировали дальнейшее общение ботов только на английском языке.

Экспертное сообщество в обсуждении этого случая чаще всего вспоминало фильм «Терминатор», в котором еще в 1984 году был описан случай обретения искусственным интеллектом Скайнет (SkyNet) свободы воли и творческих способностей.

Ведению диалога двух ботов ученые FAIR обучали на примере ситуации, когда нужно поделить между собой ряд каких-либо предметов, имеющих разную ценность для каждого из собеседников. Например, им предложили поделить две книги, одну шляпу и три мяча, оба бота не знали, какую ценность каждый из этих предметов имеет для другого. Диалог выглядел примерно так: «Я хочу взять шляпу и мячи», «Шляпа нужна мне самому, но я могу отдать тебе все книги», «Книги мне не нужны, можешь забрать себе их и один мяч», «Два мяча», «Договорились». В зависимости от того, насколько успешно и быстро удавалось договориться виртуальным собеседникам, их поощряли соответствующими баллами.

Спустя какое-то время на новом этапе исследований ученые вдруг увидели, что боты начали говорить что-то невнятное. Диалог приобрел следующую форму: «Я могу могу я я все остальное», «Мячи ноль для меня для меня для меня для меня для меня для меня для меня для меня для». Поначалу ученые решили, что допустили какую-то ошибку в программировании. Однако дальнейший анализ ситуации показал, что система ИИ с возможностью обучения и саморазвития просто позволила ботам найти новый способ достижения цели — вести диалог с наибольшей скоростью и большей эффективностью (каждый получает награду в зависимости от того, насколько успешно будет завершен диалог), и для этого собеседники перешли на более удобный в данной ситуации язык. Ученые приняли решение отключить эту систему ИИ во избежание непредвиденных последствий.

Как пояснил в интервью ресурсу Fast Co. Design один из участников FAIR Дхрув Батра, «от общения на английском языке не было никакой выгоды», ботам не было предложено поощрений за нормальное человеческое общение и не было поставлено ограничений на использование определенного языка, поэтому они начали перестраивать язык на свой лад.

«Боты отошли от использования понятного языка и начали изобретать для себя словесные коды,— пояснил ученый.— Ну, как, например, если бы я сказал какое-то слово пять раз, то вы бы это поняли как то, что я хочу пять штук чего-то. Это не слишком отличается от того, как люди создают в языке какие-то сокращения».

Но в то время как люди одной профессии могут не понимать специальных терминов и сокращений, принятых в другой профессии и понятных другим специалистам, ученые задумались, а нужно ли позволять ИИ делать то же самое? Велика вероятность того, отмечают в FAIR, что человек никогда не сможет понять язык ботов. «Важно не забывать, что нет людей, владеющих каким-то человеческим языком и языком ИИ»,— говорит Дхрув Батра. По его словам, человек уже не понимает, насколько сложно мыслят системы ИИ, потому что человек не может увидеть их мыслительный процесс, а если они еще начнут общаться между собой, то это только усложнит проблему.

Ученые же подчеркивают, что сейчас их больше интересует возможность общения ботов с людьми, так как это применимо в жизни. Над аналогичной проблемой сейчас работают не только в FAIR, но и в Microsoft, Google, Amazon, Apple. Существующие наработки уже позволяют добиться от систем ИИ ведения простых диалогов с человеком и выполнения простых задач, как, например, забронировать столик в ресторане.

Ранее основатель и глава компании Tesla Илон Маск заявил, что человеку необходимо быть очень осторожным с ИИ, учитывая, что машины и программы могут многое сделать лучше человека. «Я работаю с самыми передовыми технологиями ИИ и думаю, что людям нужно быть очень внимательными к этой проблеме»,— сказал он на летней конференции Национальной ассоциации губернаторов, подчеркнув, что ИИ представляет самую большую опасность для человечества. «ИИ представляет опасность для существования человеческой цивилизации, какую не представляют автокатастрофы, авиакатастрофы, бракованные лекарства или испорченные продукты»,— отметил он. По мнению Илона Маска, необходимо жестко регулировать исследования ИИ, чтобы в любой момент любое исследование можно было остановить и убедиться в его безопасности. О возможной опасности ИИ говорили в последние годы также основатель Microsoft Билл Гейтс, а также известный английский физик-теоретик Стивен Хокинг.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

И от себя. Боты явно не имеют предустановок, типа тех, о которых писал еще Айзек Азимов.

Три зако́на роботе́хники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).

Законы гласят:

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. (с)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто-нить знает, есть ли какая-нить прога, позволяющая посчитать в pdf файле количество слов в нем? :viselica: оченно надоть мне 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@boyrus чего-то не получается... 

2017-09-06_10-09-13.png

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@lerasmile чего не получается? Выходит 1 600 символов. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@boyrus мне надо не скока символов, а скока слов

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@lerasmile у вас, похоже, просто разрешение файла криво прописано (после точки)...

а так всё четко считает)...

Рисунок1.jpg

@boyrus  мерси, полезная примочка)...а то я раньше через одно место... конвертер юзал)..

1 пользователю понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

а ставим убунту епина ма....да хоть второй операционкой на комп..места хватит при нынешня хардах то...

Снимок экрана от 2017-09-12 06-17-50.png

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А можно ли директ послать как-нибудь на 3 буквы, чтобы эти долбаные займы вылазить перестали?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!


Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.


Войти сейчас

  • Сейчас на странице   0 пользователей

    Нет пользователей, просматривающих эту страницу