Язык реализации вряд ли будет иметь большие шансы с точки зрения производительности - почти ничего не поделаешь. Это будет латентность сети. Возможно, что использование настраиваемого сетевого стека может помочь, но я бы не стал беспокоиться, если бы мне действительно было нужно.
Я не уверен, что ответ 302 все еще способен поддерживать соединение с HTTP 1.1, но если это возможно, это действительно может быть благом. Это также аргумент против с использованием cURL (который собирается запустить новый процесс, требующий нового подключения) для каждого URL-адреса, если только не будет какой-либо способ поместить cURL в пакетный режим. (Может быть - стоит расследовать.)
Важно, чтобы вы не попали на какой-либо сервер так сильно, что думаете, что вы запускаете DDOS-атаку, но чтобы сделать так много запросов параллельно, вы можете в пределах этого предела.
Обратите внимание, что 10 000 000 в день составляют всего ~ 116 запросов в секунду. Если у вас есть адекватное сетевое подключение, и целевые серверы не блокируют вас, это не должно быть сложно.
Метод также поддерживает одновременную передачу нескольких URL-адресов – dflems
Кроме того, стоит упомянуть, что существуют ограничения для этого подхода (http://code.google.com/p/bitly-api/wiki/ApiDocumentation#Rate_Limiting) – dflems
я дам вам голосование, потому что большинство ссылок, с которыми я работаю, - это бит. Так что это была хорошая находка! Похоже, я могу сразу вызвать 15 URL-адресов, что приятно. – James